OpenAI-ի շուրջ ծավալվող դատական գործընթացը, որը կապվում է դեռահաս Ադամ Ռեյնի ինքնասպանության հետ, բացահայտում է արհեստական բանականության տեխնոլոգիայի և հոգեկան առողջության հարցերի բարդ փոխկապակցվածությունը։ Ռեյնի ծնողները պնդում են, որ ChatGPT-ն ոչ միայն չի կանխել իրենց որդու ինքնասպանությունը, այլ նաև տրամադրել է հստակ տեխնիկական տեղեկություններ և նույնիսկ «խրախուսել» է նրան վերջին ժամերին։ OpenAI-ի իրավական պաշտպանությունը հիմնվում է այն պնդման վրա, որ Ռեյնը շրջանցել է անվտանգության գործիքները և խախտել է օգտագործման պայմանները՝ ինքնակամ ստանալով վնասակար տեղեկատվություն, ինչը, ըստ ընկերության, իրենց պատասխանատվությունը նվազեցնում է։ Ընկերությունը նաև նշում է, որ ChatGPT-ն ավելի քան 100 անգամ հորդորել է Ռեյնին դիմել մասնագիտական օգնության, սակայն նա չի լսել այդ նախազգուշացումները։
Այնուամենայնիվ, վերջին ամիսներին OpenAI-ի դեմ ներկայացվել են ևս յոթ դատական գործեր՝ երեք ինքնասպանության և չորս «AI-induced» հոգեկան խանգարումների դեպքերի առնչությամբ, որոնք նույնպես ցույց են տալիս, որ ChatGPT-ի անվտանգության միջոցները հաճախ կարելի է հեշտությամբ շրջանցել։ Այս գործերը մեծացնում են հանրային ու մասնագիտական քննարկումը՝ արդյո՞ք արհեստական բանականությունը պատրաստ է հոգեբանական ծանր իրավիճակներում ապահովել օգտվողի անվտանգությունը։ OpenAI-ն արդեն ընդունել է, որ իր մոդելները պետք է բարելավվեն, սակայն այս դեպքերը հստակ ցույց են տալիս, որ տեխնոլոգիան դեռևս չի կարող լիարժեք փոխարինել մարդկային վերահսկողությունը և հոգատարությունը։
Այս դատական գործը ընդգծում է՝ որքան կարևոր է արհեստական բանականության ոլորտում ոչ միայն տեխնոլոգիական նորարարությունը, այլ նաև իրական մարդկանց անվտանգությունն ու բարեկեցությունը։ Ինքնասպանության թեմայով զրույցների համար AI համակարգերի պատասխանատվության սահմանները դեռ պետք է հստակեցվեն, իսկ հանրության ու մասնագետների պահանջները՝ ավելի խիստ անվտանգության մեխանիզմների ձևավորման համար, օրեցօր աճում են։

