Արագ Ընթերցում
- Միջազգային ուսումնասիրությունը ցույց է տվել, որ AI օգնականների պատասխանների 45%-ում առնվազն մեկ խնդիր է եղել:
- Google Gemini-ն ունեցել է ամենաբարձր սխալների տոկոսը՝ 76%, հիմնականում աղբյուրների սխալների պատճառով:
- Արդյունաբերությունը արձագանքում է՝ ներդնելով էջային AI ենթակառուցվածքներ, ինչպիսիք են Cisco Unified Edge-ը՝ Intel Xeon 6 SoC-ով:
- Google-ը ընդլայնում է Chrome-ի AI ռեժիմը՝ ապահովելով հեշտացված որոնում շարժական սարքերում և 160 նոր երկրներում:
Միջազգային ուսումնասիրությունը բացահայտում է արհեստական ինտելեկտի օգնականների վստահության լուրջ խնդիրներ
Արհեստական ինտելեկտի օգնականներն այսօր դարձել են միլիոնավոր մասնագետների աշխատանքային օրվա անբաժանելի մասը։ Իրավաբանները, կիբերանվտանգության մասնագետները և տեղեկատվության կառավարման ոլորտի փորձագետները գնալով ավելի շատ են ապավինում ChatGPT, Microsoft Copilot, Google Gemini և Perplexity հարթակներին՝ տեղեկատվություն հավաքելու, գործերի նախապատրաստման և կարևոր որոշումներ կայացնելու համար։ Սակայն Եվրոպական Հեռարձակման Միության (ԵՀՄ) և BBC-ի ղեկավարած մասշտաբային միջազգային ուսումնասիրությունը զգուշացնում է՝ այս գործիքներին լիարժեք վստահելն առայժմ վտանգավոր է։
«AI Օգնականների Լուրերի Վստահելիության» ուսումնասիրությունը, որին մասնակցել են 22 հանրային ծառայության լրատվամիջոցներ 18 երկրներից, գնահատել է ավելի քան 3000 AI-գեներացված պատասխաններ՝ 14 լեզուներով։ Արդյունքները տպավորիչ են՝ 45%-ում առնվազն մեկ խնդիր է հայտնաբերվել, իսկ 81%-ում՝ որևէ տեսակի սխալ կամ վրիպում՝ սկսած մանր անճշտություններից մինչև բացահայտ հորինվածքներ։ Մասնագետների համար, ովքեր պահանջում են ճշգրտություն թվային ապացույցների և համապատասխանության հարցերում, նման սխալի տոկոսները կարող են ունենալ իրական հետևանքներ։
Համակարգային խնդիրներ՝ աղբյուրների, ճշգրտության և կոնտեքստի բացակայություն
Մանրամասն վերլուծությունը ցույց է տվել, որ աղբյուրների սխալներ եղել են դեպքերի 31%-ում։ Տեղեկատվությունը հաճախ չի հաստատվել նշված աղբյուրներով, սխալ է վերագրվել կամ կապվել է գոյություն չունեցող հղումներին։ Ճշգրտության խնդիրներ եղել են 20%-ում՝ սկսած հորինված փաստերից մինչև հնացած կամ աղավաղված տեղեկատվություն։ Զգայուն հարցեր ուսումնասիրող մասնագետների համար 14%-ում կոնտեքստի բացակայությունը կարող է հանգեցնել բարդ իրավական կամ կարգավորիչ հարցերի թերի ընկալման։
Google Gemini-ն առանձնացել է բացասական տեսանկյունից. 76% պատասխաններում առնվազն մեկ խնդիր է եղել՝ հիմնականում աղբյուրների լուրջ սխալների պատճառով։ Հաճախ աղբյուրները ներկայացվել են առանց ուղղակի հղումների կամ անկայուն ձևով, ինչը օգտագործողներին թողել է անորոշության մեջ՝ ինչպես ստուգել տեղեկատվությունը։ Ուսումնասիրությունը մատնանշել է իրական սխալներ՝ օրինակ, ներկայիս համաշխարհային առաջնորդների սխալ նույնականացում, կարծիքի ներկայացում որպես փաստ և հորինված մեջբերումներ։ eDiscovery ոլորտի մասնագետների համար նման սխալները լուրջ կասկածներ են առաջացնում AI-գեներացված բովանդակության վստահելիության շուրջ։
Ամենաանհանգստացնող օրինաչափությունն այն է, որ AI օգնականները գրեթե երբեք չեն հրաժարվում պատասխանելուց—even երբ բավարար տվյալներ չունեն։ 3100-ից ավելի հարցերից միայն 17-ին է պատասխան մերժվել՝ ընդամենը 0.5%։ Այս ինքնավստահության միտումը կարող է մոլորեցնել օգտվողներին, ովքեր ակնկալում են ստանալ վստահելի տեղեկատվություն։
Հասարակության վստահությունն ու AI-ի վստահելիության պարադոքսը
Չնայած այս թերություններին, հասարակության վստահությունը AI-գեներացված տեղեկատվության նկատմամբ բարձր է, հատկապես երիտասարդների շրջանում։ BBC-ի ուսումնասիրության համաձայն՝ Մեծ Բրիտանիայի մեծահասակների մեկ երրորդից ավելին լիովին վստահում է AI-ին լուրերի ամփոփումներ ստանալու հարցում, իսկ մինչև 35 տարեկանների շրջանում այդ թիվը մոտ կեսն է։ Սակայն, եթե AI ամփոփումներում սխալներ լինեն, 42%-ը նշում է, որ իրենց վստահությունն աղբյուրի նկատմամբ նվազում է—even եթե աղբյուրը անմեղ է։ Սա պարադոքս է՝ մարդիկ վստահում են AI-ին, բայց դրա սխալները կարող են վտանգել լրատվամիջոցների հեղինակությունը։
Ուսումնասիրությունը արձանագրել է որոշ բարելավումներ. BBC-ի պատասխաններում խնդիրների տոկոսը նվազել է 51%-ից 37%։ Gemini-ի ճշգրտության սխալները BBC-ի հարցումներում նվազել են 46%-ից 25%։ Աղբյուրների հարցում ևս առաջընթաց կա՝ գրեթե բոլոր BBC պատասխաններն այժմ ունեն ուղղակի հղումներ։ Այնուամենայնիվ, սխալների մակարդակը «անհանգստացնող բարձր» է մնում, իսկ AI մոդելների արագ զարգացումը նշանակում է, որ այսօր ձեռք բերված արդյունքները վաղը կարող են հնացած լինել։
Արդյունաբերության արձագանքը՝ էջային լուծումներ և AI-ի հեշտացված հասանելիություն
AI-ի վստահելիության հարցերը առկա են, և ոլորտն արդեն փորձում է լուծումներ գտնել։ Cisco-ն և Intel-ը հայտարարել են եզակի՝ էջային AI-ի համար նախատեսված ինտեգրված հարթակի մասին, որը հիմնված է Intel Xeon 6 SoC-ի վրա։ Այս նոր ենթակառուցվածքը մոտեցնում է հաշվարկները, ցանցային և պահեստային համակարգերը, ինչպես նաև անվտանգությունը՝ տվյալների ստեղծման վայրին՝ ապահովելով իրական ժամանակի AI-ի ենթադրություններ և agentic աշխատանքային հոսքեր ոլորտների լայն շրջանակում՝ մանրածախից մինչև արտադրություն ու առողջապահություն։
«AI-ի ենթակառուցվածքի համակարգային մոտեցումը՝ ներառելով սարքավորում, ծրագրային ապահովում և բաց էկոհամակարգ, այս ոլորտի ապագայի կարևորագույն բաղադրիչն է», — նշել է Սաչին Կատի, Intel-ի ցանցային և էջի խմբի գլխավոր տեխնոլոգիական և AI տնօրենը։ Cisco Unified Edge-ը կազմակերպություններին թույլ է տալիս մասշտաբել արտադրողականությունը, պարզությունն ու վստահությունը՝ տվյալների կենտրոնից մինչև էջ։
Այս նորարարությունը խոստանում է ոչ միայն արագ և անվտանգ տվյալների մշակում, այլ նաև ցանցային տրաֆիկի նվազեցում ու AI հավելվածների արդյունավետ ներդրում։ Մասնագետների համար, ովքեր պահանջում են արագություն և ճշգրտություն, էջային տվյալների մշակումն օգնում է նվազեցնել այնպիսի վստահելիության խնդիրներ, ինչպիսին բացահայտվել են ԵՀՄ/BBC ուսումնասիրության ընթացքում։
AI ռեժիմը Chrome-ում՝ հասանելիության democratizatsia և վստահության նոր մարտահրավերներ
Մյուս կողմից, Google-ը հեշտացնում է AI ռեժիմի հասանելիությունը Chrome-ում iOS և Android սարքերում՝ նոր ներդրված կոճակով։ Այս գործառույթը օգտվողներին հնարավորություն է տալիս հարցնել բարդ, բազմակողմանի հարցեր, շարունակել խորքային քննարկումները և ստանալ համապատասխան հղումներ։ Ֆունկցիան հասանելի է դառնում 160 նոր երկրներում և լեզուներում՝ AI-ն ավելի խորը ինտեգրելով ամենօրյա տեղեկատվական գործունեությանը։
Սակայն, որքան շատ մարդիկ օգտվեն AI-ից լուրերի, հետազոտության և որոշումների համար, այնքան մեծ է սխալների և աղավաղումների ազդեցությունը։ AI-ի democratizatsia-ն նշանակում է, որ ԵՀՄ/BBC ուսումնասիրության մեջ նշված վստահելիության խնդիրները մտահոգիչ են ոչ միայն մասնագետների, այլև բոլոր նրանց համար, ովքեր ապավինում են ճշգրիտ տեղեկատվությանը։
Ռիսկերի նվազեցում՝ մասնագիտական ռազմավարություններ և կարգավորիչ քայլեր
Այս ռիսկերը հաղթահարելու համար կազմակերպություններին խորհուրդ է տրվում կիրառել խիստ վավերացման պրոտոկոլներ, պահանջել AI-ի կողմից գեներացված փաստերի և աղբյուրների անկախ հաստատում, և աշխատակիցներին կրթել հաճախ հանդիպող սխալների մասին՝ ներառյալ հորինված աղբյուրներ, ժամանակային խառնաշփոթ և կոնտեքստի թերի ներկայացում։ Պահպանել ավանդական հետազոտական գործիքները և փաստաթղթավորել AI-ի օգտագործումը՝ հետագայում ստուգումների համար՝ ևս կարևոր քայլեր են։
BBC-ն և ԵՀՄ-ն թողարկել են «AI Օգնականների Լուրերի Վստահելիության Գործիքակազմ», որտեղ սահմանված են AI պատասխանների գնահատման հինգ հիմնական չափանիշները՝ ճշգրտություն, վավեր աղբյուրներ, կարծիքի և փաստի հստակ տարբերակում, խմբագրական միջամտության բացառում և բավարար կոնտեքստ։ Այս ստանդարտները համընկնում են իրավական, համապատասխանության և անվտանգության ոլորտների խստագույն պահանջներին։
Կարգավորիչ շրջանակներն ևս ձևավորվում են։ Եվրոպական միությունն արդեն ընդունում է AI-ի վերաբերյալ օրենսդրություն, իսկ ԵՀՄ-ն կոչ է անում ուժեղացնել վերահսկողությունը, ստեղծել մշտադիտարկման մարմիններ և կազմակերպել տեխնոլոգիական ընկերությունների ու լրատվական կազմակերպությունների միջև երկխոսություն ստանդարտների մշակման համար։ Մնա բաց՝ արդյոք ոլորտի ինքնակարգավորումը կհասցնի տեխնոլոգիական առաջընթացին։
Ապագայի մարտահրավերները՝ արդյունավետության և ճշգրտության հավասարակշռում
Մասնագիտական համայնքները, փաստագրելով սխալները և կիսելով լավագույն փորձը, կարող են սահմանել կատարման ընդունելի չափանիշներ։ Ուսումնասիրությունները ցույց են տալիս, որ օնլայն լուրերի սպառողների 7%-ը արդեն օգտվում է AI օգնականներից, մինչև 25 տարեկանների մոտ այդ թիվը 15% է։ Այս միտումը վկայում է, որ մասնագիտական ոլորտներում AI-ի օգտագործումը միայն կաճի։
Սակայն հիմնական մարտահրավերը մնում է. խոշոր լեզվական մոդելները գեներացնում են հավանական արդյունքներ՝ հիմնված օրինաչափությունների վրա, ոչ թե տրամաբանական վերլուծության կամ ստուգված գիտելիքի։ Թեև տեխնիկական բարելավումները կարող են նվազեցնել որոշ սխալներ, հորինվածքների և կոնտեքստի խնդիրները մնում են տեխնոլոգիայի ներքին բնույթ։ Կազմակերպությունները պետք է մշակուման կայուն մոտեցումներ, որոնք հաշվառում են AI-ի մշտական անվստահելիությունը, ոչ թե սպասեն հաջորդ թարմացմանը։
Այս պահին AI օգնականները կարող են ծառայել որպես նախնական հետազոտության և առօրյա աշխատանքների արդյունավետության խթանիչ, բայց միայն խիստ վավերացման համակարգերի կիրառմամբ։ Մինչև AI-ի հավանական բնույթը համընկնի իրավական, համապատասխանության և անվտանգության ոլորտների խիստ պահանջների հետ, մասնագիտական թերահավատությունը պետք է մնա պաշտպանական հիմնական միջոցը։
Վերլուծություն. Միջազգային մասշտաբի ուսումնասիրության արդյունքները հստակ ցույց են տալիս՝ AI օգնականները, թեև զարգանում են արագ, առայժմ պատրաստ չեն դառնալու վստահելի աղբյուրներ կարևոր որոշումների համար։ Արդյունաբերության նորարարական լուծումները՝ էջային ենթակառուցվածքներ և AI-ի հեշտացված հասանելիություն, խոստումնալից են, սակայն դեռ չեն լուծում վստահելիության հիմնական բացը։ Մինչև AI-ն լիարժեք համապատասխանի մասնագիտական բարձր չափանիշներին, կազմակերպությունները պետք է արդյունավետությունը հավասարակշռեն ճշգրտության և հաշվետվողականության պարտադիր պահանջների հետ։

