OpenAI-ի Պենտագոնի հետ AI պայմանագիրը հսկողության տակ է

Հրապարակող՝

Artificial intelligence chip with military imagery

Ամենադիտվածներ

ՎԱՇԻՆԳՏՈՆ (Ազատ TV) – OpenAI-ի՝ Պենտագոնի հետ վերջին պայմանագիրը, որը սկզբում գործադիր տնօրեն Սեմ Ալթմանի կողմից ներկայացվել էր որպես զանգվածային հսկողության և ինքնավար զենքերի դեմ էթիկական «կարմիր գծեր» պահպանող, այժմ ենթարկվում է լուրջ քննության ոլորտի փորձագետների և նախկին աշխատակիցների կողմից։ Սա տեղի է ունենում այն բանից հետո, երբ մրցակից AI ընկերություն Anthropic-ը «սև ցուցակում» հայտնվեց Պաշտպանության նախարարության կողմից (DoD)՝ հրաժարվելով փոխզիջումների գնալ հենց այս հարցերի շուրջ, ինչը հարցեր է բարձրացնում OpenAI-ի համաձայնագրի իրական բնույթի և ռազմական AI էթիկայի վրա դրա հետևանքների մասին։

Ուրբաթ երեկոյան, Anthropic-ի և DoD-ի միջև առճակատումից հետո, Սեմ Ալթմանը հայտարարեց, որ OpenAI-ը հաջողությամբ բանակցել է Պենտագոնի հետ նոր պայմանների շուրջ։ Նա պնդեց, որ համաձայնագիրը ներառում է OpenAI-ի «անվտանգության ամենակարևոր սկզբունքները», մասնավորապես արգելելով ներքին զանգվածային հսկողությունը և ապահովելով մարդու պատասխանատվությունը ուժի կիրառման համար, ներառյալ ինքնավար զենքի համակարգերը։ Ալթմանը նշեց, որ DoD-ը համաձայնել է այդ սկզբունքներին և դրանք արտացոլել օրենքներում ու քաղաքականության մեջ՝ ներառելով դրանք OpenAI-ի պայմանագրում։

Սակայն Պենտագոնի հետ բանակցություններին ծանոթ աղբյուրները The Verge-ին հայտնել են, որ OpenAI-ի գործարքը զգալիորեն ավելի մեղմ է, քան Anthropic-ի առաջարկած պայմանները, հիմնականում «ցանկացած օրինական օգտագործում» արտահայտության ներառման շնորհիվ։ Այս դրույթը, ըստ էության, նշանակում է, որ եթե օգտագործումը տեխնիկապես օրինական է, ԱՄՆ բանակը կարող է օգտագործել OpenAI-ի տեխնոլոգիան դա իրականացնելու համար։ Անցած տասնամյակների ընթացքում ԱՄՆ կառավարությունը լայնորեն է մեկնաբանել «տեխնիկապես օրինականը»՝ արդարացնելով զանգվածային հսկողության լայնածավալ ծրագրեր։ Փորձագետները, այդ թվում՝ OpenAI-ի նախկին քաղաքականության հետազոտության ղեկավար Մայլս Բրունդաժը, մտահոգություն են հայտնել, որ OpenAI-ն կարող է զիջումների գնալ՝ դրանք ներկայացնելով որպես ոչ զիջումներ։

OpenAI-ի և Anthropic-ի տարբերվող ուղիները ընդգծում են ռազմական AI-ի արագ զարգացող լանդշաֆտի կարևոր լարվածությունը՝ ազգային անվտանգության շահերի և էթիկական երաշխիքների միջև հավասարակշռությունը։ OpenAI-ի կախվածությունը գոյություն ունեցող իրավական շրջանակներից, թեև գործնական թվացող, վտանգում է թույլ տալ մեկնաբանություններ, որոնք կարող են խաթարել գաղտնիությունը և մարդու վերահսկողությունը, ինչը հուշում է, որ գոյություն ունեցող օրենքները կարող են անբավարար լինել առաջադեմ AI հնարավորությունները կարգավորելու համար՝ առանց հստակ, աներկբա պայմանագրային արգելքների։

Ամենաթարմ