fbpx
ՏՏ

ChatGPT-ի մեջբերումների սխալները՝ մարտահրավեր հրատարակիչների համար

լոգո

Կոլումբիայի համալսարանի Tow Center for Digital Journalism-ի նոր ուսումնասիրությունը լուրջ խնդիրներ է բարձրացնում ChatGPT-ի կողմից հրապարակումների բովանդակության մեջբերման և վերագրման հետ կապված, ըստ TechCrunch-ի։ Չնայած OpenAI-ի և որոշ հրատարակիչների միջև կնքված լիցենզավորման համաձայնագրերին, ChatGPT-ի հակումն ինվենտարիզացնելու կամ սխալ տեղեկատվություն ներկայացնելու ուղղությամբ վտանգում է լրագրության արժանահավատությունը և հրատարակիչների հեղինակությունը։

Ուսումնասիրության հիմնական բացահայտումները

Ուսումնասիրությունը գնահատել է ChatGPT-ի կարողությունը՝ ճշգրիտ վերագրելու 200 մեջբերում 20 հրատարակիչներից, ներառյալ հայտնի պարբերականներ՝ The New York Times, The Washington Post և The Financial Times: Արդյունքները ցույց են տվել մեծ թվով անճշտություններ.

  1. Անհուսալի մեջբերումներ.
    • Միայն փոքր թվով մեջբերումներ էին ամբողջությամբ ճշգրիտ՝ ներառելով ճիշտ հրատարակչի անունը, ամսաթիվը և հղումը։
    • 200 դեպքերից 153-ում ChatGPT-ն տրամադրել է մասամբ կամ ամբողջությամբ սխալ տեղեկատվություն՝ ներառյալ հորինված աղբյուրներ։
  2. Հորինված պատասխաններ.
    • Երբ ChatGPT-ն չէր կարողանում որոշել աղբյուրը, այն հազվադեպ էր ընդունում իր սահմանափակումները։ Փոխարենը, այն ստեղծում էր սխալ մեջբերումներ։ Միայն 7 դեպքում այն խոստովանել է իր անկարողությունը։
  3. Լրագրության ապաբնութագրում.
    • ChatGPT-ն հաճախ լրագրության բովանդակությունը վերաբերվում է որպես մեկուսացված նյութի՝ անտեսելով դրա արտադրության սկզբնական համատեքստը։ Այս մոտեցումը հանգեցրել է աղբյուրների, որոնք չէին արտացոլում հոդվածների իսկությունը։

Հրատարակիչների համար հետևանքներ

Սխալ ներկայացման վտանգ

Ուսումնասիրությունը ցույց է տվել, որ ChatGPT-ն երբեմն վերագրում է բովանդակությունը պլագիատ արված աղբյուրներին՝ անտեսելով բնօրինակ հրատարակչին։ Օրինակ, The New York Times-ի հոդվածներից մեկը վերագրվել է կայքին, որը պատճենել էր դրա բովանդակությունը առանց վկայակոչման։

Լիցենզավորման համաձայնագրերի ազդեցությունը

Նույնիսկ լիցենզավորման համաձայնագրեր ունեցող հրատարակիչները, օրինակ՝ The Financial Times-ը, հանդիպել են սխալ վերագրումների, ինչը հարց է բարձրացնում OpenAI-ի հետ համագործակցության արդյունավետության վերաբերյալ։

Անհամապատասխան պատասխաններ

ChatGPT-ի տված պատասխանները կրկնվող հարցերի դեպքում հաճախ տարբեր են եղել, ինչը կասկածելի է դարձնում այդ պատասխանների ճշգրտությունը։ Սա հատկապես կարևոր է աղբյուրների հուսալիության առումով։

Հեղինակության և տրաֆիկի խնդիրներ

Հրատարակիչները, որոնք թույլ են տալիս OpenAI-ի որոնման բոտերին մուտք գործել իրենց բովանդակություն, կարող են հույս ունենալ ավելի մեծ տեսանելիության վրա։ Սակայն սխալ մեջբերումները կարող են վնասել նրանց հեղինակությանը կամ ուղղորդել ընթերցողներին դեպի այլ աղբյուրներ։

OpenAI-ի որոնման բոտերի արգելափակման մարտահրավերները

Որոշ հրատարակիչներ, ինչպես The New York Times-ը, արգելափակել են OpenAI-ի որոնման բոտերին՝ իրենց մտավոր սեփականությունը պաշտպանելու համար։ Սակայն ուսումնասիրությունը ցույց է տվել, որ նույնիսկ այս դեպքում ChatGPT-ն ստեղծել է սխալ մեջբերումներ՝ նոր հարցեր բարձրացնելով OpenAI-ի տվյալների մշակման վերաբերյալ։

OpenAI-ի արձագանքը

OpenAI-ն պաշտպանել է իր մոտեցումը՝ պնդելով, որ ուսումնասիրման փորձարկումը «ոչ սովորական» է եղել։ Այն նշել է, որ ինքը համագործակցում է գործընկերների հետ՝ մեջբերումների ճշգրտությունը բարելավելու և հրատարակիչների նախասիրությունները հարգելու համար։

Եզրակացություն

Tow Center-ի ուսումնասիրությունը բացահայտում է այն մարտահրավերները, որոնց բախվում են հրատարակիչները՝ իրենց բովանդակության կառավարումը սերնդային արհեստական բանականության գործիքների օգտագործման ժամանակ։ ChatGPT-ի անճշգրիտ մեջբերումները և բովանդակությունը ապաբնութագրելու հակումն ընդգծում են այս տեխնոլոգիաների հետ կապված էթիկական և գործնական խնդիրները։

Հրատարակիչները, որպես ներկայումս, ունեն սահմանափակ վերահսկողություն իրենց բովանդակության օգտագործման և ներկայացման վրա՝ ChatGPT-ի կողմից, ինչը նրանց ենթարկում է հեղինակային և կոմերցիոն ռիսկերի։

ԱՄԵՆԱԴԻՏՎԱԾՆԵՐԸ

ՎԵՐ