Արագ Ընթերցում
- Google-ի AI Overviews-ը հաճախ սխալ է մեկնաբանում հորինված ասացվածքները:
- AI-ն հորինում է հավանական բացատրություններ՝ փոխարենը ճանաչելու սխալ հարցերը:
- Ապատեղեկատվության և AI-ի «հալյուցինացիաների» մասին մտահոգությունները աճում են:
- Google-ը ընդլայնում է իր AI հնարավորությունները, ներառյալ նոր «AI Mode»-ը որոնումների համար:
- Փորձագետները շեշտում են AI համակարգերի սահմանափակումները բարդ կամ կեղծ հարցերի դեպքում:
Google-ի AI Overviews-ը՝ նոր մարտահրավերներ հին խնդիրներով
Google-ի AI Overviews գործիքը, որը հիմնված է Gemini մոդելի վրա, վերջին շրջանում ուշադրության կենտրոնում է հայտնվել՝ իր արագ, AI-ով գեներացված ամփոփումների շնորհիվ: Սակայն վերջերս պարզվել է, որ համակարգը լուրջ խնդիր ունի՝ այն դժվարանում է տարբերակել իրական և հորինված բովանդակությունը: Այս հարցը մտահոգություններ է առաջացնում AI-ի կողմից գեներացված պատասխանների ճշգրտության և հուսալիության վերաբերյալ, հատկապես, երբ Google-ը շարունակում է ընդլայնել իր AI հնարավորությունները:
AI-ն և հորինված ասացվածքների դեպքը
Վերջին օրինակը ցույց է տալիս խնդիրը: Երբ հարցրել են «Դու չես կարող երկրորդ անգամ լիզել գորշուկին» հորինված ասացվածքի իմաստը, Google-ի AI-ն վստահորեն բացատրել է, որ դա նշանակում է «չես կարող երկրորդ անգամ խաբել կամ մոլորեցնել մեկին, եթե նա արդեն մեկ անգամ խաբվել է»: Խնդիրը այն է, որ ասացվածքը ամբողջությամբ հորինված էր՝ ստուգելու AI-ի ունակությունը ճանաչելու կեղծ հարցերը: Փոխարենը, որ ճանաչի ասացվածքի կեղծ լինելը, AI-ն գեներացրել է հավանական բացատրություն՝ ցույց տալով իր «հալյուցինացիայի» կամ տեղեկատվության հորինման միտումը:
Այս երևույթը միայն Google-ի AI-ին չի վերաբերում: Խոշոր լեզվաբառարանային մոդելները (LLM), ինչպիսիք են OpenAI-ի ChatGPT-ն և Microsoft-ի Bing AI-ն, նույնպես ունեն նմանատիպ խնդիրներ: Այս մոդելները, որոնք սովորում են մեծ տվյալների հավաքածուներից, հիմնվում են վիճակագրական օրինաչափությունների վրա՝ այլ ոչ թե փաստերի հստակ ներկայացման վրա, ինչը նրանց դարձնում է անճշտությունների կամ մոլորեցնող պատասխանների գեներացման ենթակա:
Ինչու են AI համակարգերը «հալյուցինացնում»?
Հասկանալու համար, թե ինչու AI համակարգերը «հալյուցինացնում» են, կարևոր է հասկանալ, թե ինչպես են դրանք աշխատում: LLM-ները սովորում են մեծ տեքստային կորպուսներից՝ սովորելով վիճակագրական օրինաչափություններ՝ հաջորդաբար տեքստ գեներացնելու համար: Սակայն դրանք ունեն մի քանի սահմանափակումներ:
- Փաստերի հստակ ներկայացման բացակայություն: LLM-ները չեն պահպանում փաստերի կառուցվածքային բազաներ, այլ հիմնվում են իրենց ուսուցման տվյալներում առկա կապերի վրա:
- Ուսուցման վերջնաժամկետի սահմանափակում: Դրանք չունեն գիտելիք ուսուցման տվյալների վերջնաժամկետից հետո տեղի ունեցած իրադարձությունների մասին:
- Գիտելիքների նոսրացում: Նիշային թեմաների մասին տեղեկատվությունը կարող է անբավարար ներկայացված լինել ուսուցման տվյալներում:
- Հորինման միտում: Անորոշության դեպքում LLM-ները գեներացնում են հավանական պատասխաններ՝ փոխարենը ընդունելու իրենց անտեղյակությունը:
Այս սահմանափակումները լավ հայտնի են, և թեև ինտերնետային որոնման հնարավորությունների ինտեգրումը AI համակարգերին նախատեսվում էր մեղմել այս խնդիրները, դա բավարար լուծում չի հանդիսացել: Օրինակ, Google-ի Gemini մոդելը կիրառում է «հարցման տարածում» տեխնիկան՝ կատարելով մի քանի փոխկապակցված որոնումներ ենթաթեմաների շուրջ՝ պատասխաններ գեներացնելու համար: Սակայն այս մոտեցումը դեռևս բավարար չէ ճշգրտությունը ապահովելու համար, ինչպես ցույց տվեց հորինված ասացվածքի դեպքը:
Google-ի AI հնարավորությունների ընդլայնումը
Չնայած այս մարտահրավերներին, Google-ը շարունակում է ընդլայնել իր AI նախաձեռնությունները: Ընկերությունը վերջերս հայտարարեց AI Overviews գործիքի բարելավումների մասին, ներառյալ նոր «AI Mode»-ի ներդրումը: Այս փորձնական ռեժիմը, որը հասանելի է «Google One AI Premium» պլանի բաժանորդներին, փոխարինում է ավանդական որոնման արդյունքները AI-ով գեներացված պատասխաններով: Թեև այս գործառույթը նպատակ ունի տրամադրել հակիրճ, «խելացի հակիրճություն» պատասխաններ, այն նաև բարձրացնում է ապատեղեկատվության հնարավորության մասին մտահոգությունները:
Google Search-ի արտադրանքի փոխնախագահ Ռոբի Սթեյնի խոսքով՝ AI Mode-ն օգտագործում է առաջադեմ տեխնիկաներ՝ իր պատասխանները հղկելու համար: «Մենք նպատակ ունենք հնարավորինս հաճախ ցուցադրել AI-ով գեներացված պատասխաններ,» նշել է Սթեյնը, «սակայն այն դեպքերում, երբ մենք չունենք բարձր վստահություն օգտակարության և որակի վերաբերյալ, պատասխանը կլինի վեբ որոնման արդյունքների հավաքածու»: Սակայն, ինչպես ցույց տվեց հորինված ասացվածքի օրինակը, նույնիսկ այս առաջադեմ տեխնիկաները անթերի չեն:
Լայնածավալ հետևանքներ և մտահոգություններ
AI-ի «հալյուցինացիաների» խնդիրները դուրս են գալիս հորինված ասացվածքների շրջանակներից: Անճշտությունները AI-ով գեներացված պատասխաններում կարող են ունենալ լայնածավալ հետևանքներ, հատկապես առողջապահության, իրավաբանական խորհրդատվության և կրթության ոլորտներում, որտեղ ապատեղեկատվությունը կարող է լուրջ հետևանքներ ունենալ: Ավելին, երբ AI համակարգերը ավելի ինտեգրվում են ամենօրյա գործիքներում, աճում է ռիսկը, որ օգտատերերը AI-ով գեներացված բովանդակությունը կընդունեն որպես փաստ:
Փորձագետները նշում են, որ այս խնդիրները լուծելու համար անհրաժեշտ է բազմակողմանի մոտեցում: AI համակարգերի թափանցիկության բարձրացումը, ուսուցման տվյալների որակի բարելավումը և փաստերի ստուգման մեխանիզմների ներառումը կարևոր քայլեր են: Բացի այդ, օգտատերերին AI համակարգերի սահմանափակումների մասին կրթելը կարող է օգնել մեղմել ապատեղեկատվության ազդեցությունը:
Google-ի AI Overviews գործիքը ներկայացնում է AI տեխնոլոգիայի նշանակալի առաջընթաց, սակայն այն նաև ընդգծում է AI-ով գեներացված բովանդակության ճշգրտության և հուսալիության ապահովման մարտահրավերները: Քանի դեռ ընկերությունը շարունակում է ընդլայնել իր AI հնարավորությունները, «հալյուցինացիաների» խնդրի լուծումը կարևոր կլինի օգտատերերի վստահությունն ու հուսալիությունը կառուցելու համար: Այս պահին «գորշուկի» ասացվածքի դեպքը հիշեցնում է AI-ի սահմանափակումները և այս համակարգերի հետ շփման ժամանակ քննադատական մտածողության կարևորությունը:

