Կոլումբիայի համալսարանի Tow Center for Digital Journalism-ի նոր ուսումնասիրությունը լուրջ խնդիրներ է բարձրացնում ChatGPT-ի կողմից հրապարակումների բովանդակության մեջբերման և վերագրման հետ կապված, ըստ TechCrunch-ի։ Չնայած OpenAI-ի և որոշ հրատարակիչների միջև կնքված լիցենզավորման համաձայնագրերին, ChatGPT-ի հակումն ինվենտարիզացնելու կամ սխալ տեղեկատվություն ներկայացնելու ուղղությամբ վտանգում է լրագրության արժանահավատությունը և հրատարակիչների հեղինակությունը։
Ուսումնասիրության հիմնական բացահայտումները
Ուսումնասիրությունը գնահատել է ChatGPT-ի կարողությունը՝ ճշգրիտ վերագրելու 200 մեջբերում 20 հրատարակիչներից, ներառյալ հայտնի պարբերականներ՝ The New York Times, The Washington Post և The Financial Times: Արդյունքները ցույց են տվել մեծ թվով անճշտություններ.
- Անհուսալի մեջբերումներ.
- Միայն փոքր թվով մեջբերումներ էին ամբողջությամբ ճշգրիտ՝ ներառելով ճիշտ հրատարակչի անունը, ամսաթիվը և հղումը։
- 200 դեպքերից 153-ում ChatGPT-ն տրամադրել է մասամբ կամ ամբողջությամբ սխալ տեղեկատվություն՝ ներառյալ հորինված աղբյուրներ։
- Հորինված պատասխաններ.
- Երբ ChatGPT-ն չէր կարողանում որոշել աղբյուրը, այն հազվադեպ էր ընդունում իր սահմանափակումները։ Փոխարենը, այն ստեղծում էր սխալ մեջբերումներ։ Միայն 7 դեպքում այն խոստովանել է իր անկարողությունը։
- Լրագրության ապաբնութագրում.
- ChatGPT-ն հաճախ լրագրության բովանդակությունը վերաբերվում է որպես մեկուսացված նյութի՝ անտեսելով դրա արտադրության սկզբնական համատեքստը։ Այս մոտեցումը հանգեցրել է աղբյուրների, որոնք չէին արտացոլում հոդվածների իսկությունը։
Հրատարակիչների համար հետևանքներ
Սխալ ներկայացման վտանգ
Ուսումնասիրությունը ցույց է տվել, որ ChatGPT-ն երբեմն վերագրում է բովանդակությունը պլագիատ արված աղբյուրներին՝ անտեսելով բնօրինակ հրատարակչին։ Օրինակ, The New York Times-ի հոդվածներից մեկը վերագրվել է կայքին, որը պատճենել էր դրա բովանդակությունը առանց վկայակոչման։
Լիցենզավորման համաձայնագրերի ազդեցությունը
Նույնիսկ լիցենզավորման համաձայնագրեր ունեցող հրատարակիչները, օրինակ՝ The Financial Times-ը, հանդիպել են սխալ վերագրումների, ինչը հարց է բարձրացնում OpenAI-ի հետ համագործակցության արդյունավետության վերաբերյալ։
Անհամապատասխան պատասխաններ
ChatGPT-ի տված պատասխանները կրկնվող հարցերի դեպքում հաճախ տարբեր են եղել, ինչը կասկածելի է դարձնում այդ պատասխանների ճշգրտությունը։ Սա հատկապես կարևոր է աղբյուրների հուսալիության առումով։
Հեղինակության և տրաֆիկի խնդիրներ
Հրատարակիչները, որոնք թույլ են տալիս OpenAI-ի որոնման բոտերին մուտք գործել իրենց բովանդակություն, կարող են հույս ունենալ ավելի մեծ տեսանելիության վրա։ Սակայն սխալ մեջբերումները կարող են վնասել նրանց հեղինակությանը կամ ուղղորդել ընթերցողներին դեպի այլ աղբյուրներ։
OpenAI-ի որոնման բոտերի արգելափակման մարտահրավերները
Որոշ հրատարակիչներ, ինչպես The New York Times-ը, արգելափակել են OpenAI-ի որոնման բոտերին՝ իրենց մտավոր սեփականությունը պաշտպանելու համար։ Սակայն ուսումնասիրությունը ցույց է տվել, որ նույնիսկ այս դեպքում ChatGPT-ն ստեղծել է սխալ մեջբերումներ՝ նոր հարցեր բարձրացնելով OpenAI-ի տվյալների մշակման վերաբերյալ։
OpenAI-ի արձագանքը
OpenAI-ն պաշտպանել է իր մոտեցումը՝ պնդելով, որ ուսումնասիրման փորձարկումը «ոչ սովորական» է եղել։ Այն նշել է, որ ինքը համագործակցում է գործընկերների հետ՝ մեջբերումների ճշգրտությունը բարելավելու և հրատարակիչների նախասիրությունները հարգելու համար։
Եզրակացություն
Tow Center-ի ուսումնասիրությունը բացահայտում է այն մարտահրավերները, որոնց բախվում են հրատարակիչները՝ իրենց բովանդակության կառավարումը սերնդային արհեստական բանականության գործիքների օգտագործման ժամանակ։ ChatGPT-ի անճշգրիտ մեջբերումները և բովանդակությունը ապաբնութագրելու հակումն ընդգծում են այս տեխնոլոգիաների հետ կապված էթիկական և գործնական խնդիրները։
Հրատարակիչները, որպես ներկայումս, ունեն սահմանափակ վերահսկողություն իրենց բովանդակության օգտագործման և ներկայացման վրա՝ ChatGPT-ի կողմից, ինչը նրանց ենթարկում է հեղինակային և կոմերցիոն ռիսկերի։