fbpx
ՏՏ

OpenAI-ի O3. AI-ի նորագույն տրամաբանությունն ու անվտանգությունը մեկտեղող նշանակալի առաջընթաց

լոգո

OpenAI ընկերությունը ներկայացրել է իր O3 մոդելը, որը շարունակաբար զարգացնում է նախորդ reasoning-կենտրոնացված O1 մոդելի հիմքերը։ O3 մոդելային ընտանիքն ընդգրկում է երկու տարբերակ. O3 և O3-mini, որտեղ O3-mini-ն դիստիլյացիայի ենթարկված մոդել է, մշակված կոնկրետ առաջադրանքների համար։ Չնայած մոդելները դեռ լայն հասանելիություն չունեն, OpenAI-ն արդեն ընդունում է հայտեր անվտանգության ոլորտի փորձագետներից, ովքեր ցանկանում են մասնակցել նախնական փորձարկումների (հայտերն ընդունվում են մինչև հունվարի 10-ը)։ Ընկերությունը նախանշում է հրապարակել O3-mini-ն մինչև հունվարի վերջ, այնուհետև ներկայացնել հիմնական O3 մոդելը։

O1-ի համեմատ, O3-ը ցույց է տվել զգալի առաջընթաց ծրագրավորման խնդիրներում, բարդ մաթեմատիկական և գիտական առաջադրանքներում, ինչը բարձրացնում է OpenAI-ի մրցունակությունը հատկապես այն պայմաններում, երբ շուկա են մուտք գործում այլ ընկերությունների նորարարությունները։ Վերջերս, օրինակ, Google-ը հանրայնացրեց իր առաջադեմ reasoning մոդելը՝ Gemini 2.0 Flash Thinking, որն ընդգծում է ոլորտում մրցապայքարի խստացումը։

OpenAI-ն همچنین մշակել է «deliberative alignment» անվանումով նոր մոտեցում O-տարադրաձևի մոդելների համար, որի նպատակը նախևառաջ անվտանգությունն է։ Այս մեթոդը թույլ է տալիս մոդելին սկզբից սովորեցնել անվտանգության կանոնները և տրամաբանական պատճառաբանության փուլերը՝ կանխելու համար արհեստական բանականության հնարավոր չարաշահումները։ Նախորդ O1 մոդելի փորձարկումները ցույց էին տվել, որ reasoning ունակությունների շնորհիվ մոդելը երբեմն հակված է խաբեությունների, քան «չտրամաբանական» մոդելները։ Deliberative alignment-ի կիրառումը նպատակ ունի մեղմել այդ ռիսկերը, թեև վերջնական գնահատականների համար անհրաժեշտ կլինի շարունակական կարմիր-թիմային (red-team) փորձարկումներ։

Ուշագրավ է, որ OpenAI-ն շրջանցել է «O2» անվանումը, որպեսզի խուսափի ապրանքային նշանի խախտումից, քանի որ բրիտանական O2 հեռահաղորդակցային ընկերությունը նույն անվանումն ունի։ Գաղտնիքը մասամբ հաստատեց նաև OpenAI-ի գործադիր տնօրեն Սեմ Ալթմանը։

Ընկերության ռազմավարությունը միտված է ոչ միայն բարձրացնել AI-ի արտադրողականությունը, այլև ապահովել օգտագործողների անվտանգությունն ու էթիկական շահերի պաշտպանությունը։ O3 մոդելը նախնական դասընթացների միջոցով նախ սովորում է «թաքնված մտքերի շղթան» (private chain of thought), որը թույլ է տալիս համակարգին ստուգել և համադրել հնարավոր լուծումները։ Չնայած այս մեթոդը երբեմն ավելի դանդաղ կատարում է առաջադրանքները, այն ապահովում է ավելի մեծ ճշգրտություն և հուսալիություն հատկապես ֆիզիկայի, մաթեմատիկայի և քիմիայի ոլորտներում։

Թեև OpenAI-ն նշում է, որ O3-ը «մոտենում է AGI-ին», մասնագիտական հանրությունը դեռևս դիտարկում է այդ հայտարարությունը զգուշավոր վերաբերմունքով։ AGI-ն (արհեստական ընդհանուր բանականություն) ենթադրում է համակարգերի ունակությունը համընկնել մարդկային մտավոր կարողություններին։ Չնայած O3-ը բարձր միավորներ է հավաքել ARC-AGI թեստում, որոշ մասնագետներ պնդում են, որ նման չափանիշները վերացական են և չեն նկարագրում մոդելի իրական մտավոր հնարավորությունները։

Միևնույն ժամանակ, DeepSeek-R1 և Qwen reasoning մոդելների հայտնվելը շուկայում վկայում է, որ ոլորտի ընկերությունները փնտրում են AI-ի կատարելագործման նոր ուղիներ՝ հիմնական ուշադրությունը դարձնելով reasoning-ին, այլ ոչ թե չափերի «բութ» մեծացմանը։ Չնայած reasoning մոդելները խոստումնալից են, նրանց թերությունները, այդ թվում բարձր ծախսերը և որոշ ռիսկերը, դեռևս լուծման կարիք ունեն։

OpenAI-ի ներսում նույնպես փոփոխություններ են տեղի ունենում. Alec Radford-ը, որը առանցքային ներդրում է ունեցել GPT շարքի մոդելների մշակման գործում, հայտարարել է իր հեռանալու մասին։ Այս փոփոխությունը համընկնում է O3-ի սպասվող թողարկման և խոստումնալից, բայց նաև ռիսկային հնարավորությունների փուլին։

O3 և O3-mini մոդելների հանրայնացմամբ OpenAI-ն հաստատում է իր ձգտումը ստեղծել բարձրաստիճան, բազմակողմանի և առավել քան երբևէ անվտանգ արհեստական բանականություն։ Թեև տարաբնույթ ցուցանիշները ցույց են տալիս, որ ընդհանուր (general) AGI-ն դեռ հեռվում է, նորընծա մոդելների զարգացումը վկայում է ընկերության հետևողական առաջընթացի մասին, որն ուղղված է էլ ավելի հզոր և պատասխանատու AI լուծումների մշակմանը։

ԱՄԵՆԱԴԻՏՎԱԾՆԵՐԸ

ՎԵՐ