د OpenAI له مینځه وړلو لپاره د ایلون مسک قانوني هڅې ممکن پدې پورې اړه ولري چې څنګه د دې د ګټې لپاره فرعي شرکت د فرنټیر لابراتوار بنسټ ایښودونکي ماموریت ته وده ورکوي یا کموي ترڅو ډاډ ترلاسه کړي چې انسانیت د مصنوعي عمومي استخباراتو څخه ګټه پورته کوي.
د پنجشنبې په ورځ ، د کالیفورنیا په اوکلینډ کې فدرالي محکمې د یوه پخواني کارمند او د بورډ غړي واوریدل چې وویل چې د AI محصولاتو بازار ته د هڅولو لپاره د شرکت هڅو د AI خوندیتوب ته د هغې ژمنې موافقې کړې.
روزي کیمبل په 2021 کې د شرکت AGI چمتووالي ټیم سره یوځای شو ، او هغې په 2024 کې د هغې ټیم منحل کیدو وروسته OpenAI پریښود. بل د خوندیتوب متمرکز ټیم، د سوپر الینمینټ ټیم، په ورته وخت کې وتړل شو.
هغې شاهدي ورکړه: "کله چې زه یوځای شوم، دا د خلکو لپاره خورا څیړنې متمرکز او عام و چې د AGI او خوندیتوب مسلو په اړه خبرې وکړي." "د وخت په تیریدو سره دا د محصول متمرکز سازمان په څیر ډیر شو."
د کراس ازموینې لاندې، کیمبل ومنله چې د پام وړ تمویل د لابراتوار د AGI د جوړولو هدف لپاره اړین و، مګر وویل چې د مناسب خوندیتوب اقداماتو پرته د عالي هوښیار کمپیوټر ماډل رامینځته کول به د هغه سازمان ماموریت سره سمون ونلري چې هغه په اصل کې برخه اخیستې وه.
کمپبل یوې پیښې ته اشاره وکړه چیرې چې مایکروسافټ په هند کې د شرکت GPT-4 ماډل نسخه د خپل Bing لټون انجن له لارې ځای په ځای کړه مخکې لدې چې ماډل د شرکت د ګمارنې خوندیتوب بورډ (DSB) لخوا ارزول شوی وي. هغې وویل، ماډل پخپله لوی خطر وړاندې نه کړ، مګر شرکت ته اړتیا وه چې "قوی مثالونه وټاکي ځکه چې ټیکنالوژي خورا پیاوړې کیږي. موږ غواړو د خوندیتوب ښه پروسې په هغه ځای کې ولرو چې موږ پوهیږو چې په باوري توګه تعقیب کیږي."
د OpenAI وکیلانو هم کیمبل ومنله چې د هغې په "قیاس نظر" کې، د OpenAI د خوندیتوب تګلاره په xAI کې غوره ده، د AI شرکت چې مسک تاسیس کړی چې د دې کال په پیل کې د SpaceX لخوا اخیستل شوی و.
OpenAI د خپلو ماډلونو ارزونه خپروي او په عامه توګه د خوندیتوب چوکاټ شریکوي، مګر شرکت د AGI تنظیم کولو لپاره د خپل اوسني چلند په اړه د تبصرې کولو څخه ډډه وکړه. ډیلان سکینډینارو، د دې چمتووالي اوسنی مشر، د فبروري په میاشت کې د انتروپیک څخه ګمارل شوی و. الټمن وویل چې کرایه به هغه ته اجازه ورکړي چې "نن شپه ښه خوب وکړي."
که څه هم په هند کې د GPT-4 ځای په ځای کول یو له هغو سور بیرغونو څخه و چې د OpenAI غیر انتفاعي بورډ یې په 2023 کې د لنډ وخت لپاره CEO سیم الټمن له دندې ګوښه کړ. دا پیښه وروسته له هغه رامینځته شوه کله چې کارمندانو په شمول د هغه وخت رییس ساینس پوه الیا سوتسکیر او بیا CTO میرا مورتي د Altman د مدیریت طرزالعمل شخړې په اړه شکایت وکړ. په هغه وخت کې د بورډ غړې، تاشا مککولي، د اندیښنو په اړه شاهدي ورکړه چې الټمن د بورډ سره د دې غیر معمولي جوړښت د فعالیت لپاره کافي نه و.
مک کاولي د Altman د بورډ ګمراه کولو په پراخه کچه راپور شوي نمونې هم بحث وکړ. په پام کې نیولو سره، الټمن د بورډ بل غړي ته د مک کاولي د ارادې په اړه دروغ وویل چې هیلین ټونر، د بورډ دریم غړی چې یو سپینه پاڼه یې خپره کړه چې د OpenAI د خوندیتوب پالیسۍ ځینې نیوکې پکې شاملې وې. Altman په عامه توګه د ChatGPT پیل کولو پریکړې په اړه بورډ ته خبر ورکولو کې هم پاتې راغلی، او غړي د ګټو احتمالي شخړو د افشا کولو نشتوالي په اړه اندیښمن وو.
مک کولي محکمې ته وویل: "موږ یو غیر انتفاعي بورډ یو او زموږ دنده دا وه چې زموږ لاندې د ګټې لپاره نظارت وکړو." "د دې کولو لپاره زموږ لومړنۍ لاره تر پوښتنې لاندې وه. موږ په لوړه کچه باور نه درلود چې باور وکړو چې موږ ته لیږل شوي معلومات موږ ته اجازه راکوي چې په باخبره توګه پریکړې وکړو."
په هرصورت، د Altman بوټ کولو پریکړه په ورته وخت کې د شرکت کارمندانو ته د داوطلبۍ وړاندیز په توګه راغله. مک کاولي وویل کله چې د OpenAI کارمندان د الټمن سره یوځای کیدل پیل کړل او مایکروسافټ د وضعیت د بیرته راګرځولو لپاره کار وکړ ، بورډ په نهایت کې کورس بیرته واخیست ، او غړو یې د الټمین د استعفا سره مخالفت وکړ.
د غیر انتفاعي بورډ ښکاره ناکامي چې د انتفاعي سازمان اغیزه کوي مستقیم د مسک قضیې ته ځي چې د څیړنې سازمان څخه د OpenAI بدلون په نړۍ کې ترټولو لوی خصوصي شرکت ته د سازمان د بنسټ ایښودونکو ضمیمه تړون مات کړ.
ډیویډ شیزر، د کولمبیا د حقوقو د ښوونځي پخوانی رییس چې د مسک ټیم لخوا د ماهر شاهد په توګه کار کولو لپاره پیسې ورکول کیږي، د مک کاولي اندیښنو ته اشاره وکړه.
"OpenAI ټینګار کړی چې د دې ماموریت کلیدي برخه خوندیتوب دی او دوی به د ګټې په پرتله خوندیتوب ته لومړیتوب ورکړي ،" شیزر وویل. "د دې یوه برخه د خوندیتوب مقررات په جدي توګه نیول دي، که چیرې یو څه د خوندیتوب بیاکتنې ته اړتیا ولري، دا باید پیښ شي. هغه څه چې د پروسې مسله ده." د AI سره لا دمخه د ګټې لپاره شرکتونو کې ژور ځای شوی ، مسله له یو واحد لابراتوار هاخوا ده. مک کاولي وویل چې په OpenAI کې د داخلي حکومتدارۍ ناکامي باید د پرمختللي AI قوي حکومتي مقرراتو منلو لپاره یو دلیل وي - "[که] دا ټول د یو اجرایوي رییس پورې اړه لري چې دا پریکړې کوي، او موږ د خلکو ښه والی په خطر کې لرو، دا خورا ضمني دی."