اوپن اے آئی کو ختم کرنے کے لیے ایلون مسک کی قانونی کوشش اس بات پر منحصر ہو سکتی ہے کہ کس طرح اس کی غیر منافع بخش ذیلی کمپنی فرنٹیئر لیب کے بانی مشن کو یقینی بنانے کے لیے مصنوعی جنرل انٹیلی جنس سے فائدہ اٹھاتی ہے یا اس میں کمی لاتی ہے۔
جمعرات کو، اوکلینڈ، کیلیفورنیا میں ایک وفاقی عدالت نے ایک سابق ملازم اور بورڈ کے رکن کو سنا کہ کمپنی کی جانب سے AI مصنوعات کو مارکیٹ میں دھکیلنے کی کوششوں نے AI کی حفاظت کے لیے اس کی وابستگی سے سمجھوتہ کیا۔
روزی کیمبل نے 2021 میں کمپنی کی AGI ریڈینس ٹیم میں شمولیت اختیار کی، اور اس نے 2024 میں اپنی ٹیم کے منقطع ہونے کے بعد OpenAI چھوڑ دیا۔ ایک اور حفاظت پر مرکوز ٹیم، سپر الائنمنٹ ٹیم، کو اسی مدت میں بند کر دیا گیا تھا۔
"جب میں نے شمولیت اختیار کی، تو لوگوں کے لیے AGI اور حفاظتی مسائل کے بارے میں بات کرنا بہت تحقیق پر مرکوز اور عام تھا،" اس نے گواہی دی۔ "وقت کے ساتھ ساتھ یہ ایک پروڈکٹ پر مرکوز تنظیم کی طرح بن گیا ہے۔"
جرح کے دوران، کیمبل نے تسلیم کیا کہ AGI کی تعمیر کے لیب کے ہدف کے لیے ممکنہ طور پر اہم فنڈنگ ضروری تھی لیکن کہا کہ صحیح حفاظتی اقدامات کے بغیر ایک انتہائی ذہین کمپیوٹر ماڈل بنانا اس تنظیم کے مشن کے مطابق نہیں ہوگا جس میں وہ اصل میں شامل ہوئی تھی۔
کیمبل نے ایک واقعہ کی طرف اشارہ کیا جہاں مائیکروسافٹ نے کمپنی کے GPT-4 ماڈل کا ایک ورژن اپنے Bing سرچ انجن کے ذریعے ہندوستان میں تعینات کیا اس سے پہلے کہ کمپنی کے تعیناتی سیفٹی بورڈ (DSB) کے ذریعہ ماڈل کی جانچ کی جائے۔ انہوں نے کہا کہ ماڈل نے خود کوئی بہت بڑا خطرہ پیش نہیں کیا، لیکن کمپنی کو "مضبوط نظیریں قائم کرنے کی ضرورت ہے کیونکہ ٹیکنالوجی مزید طاقتور ہوتی جاتی ہے۔ ہم اس جگہ پر اچھے حفاظتی عمل چاہتے ہیں جہاں ہم جانتے ہیں کہ قابل اعتماد طریقے سے پیروی کی جا رہی ہے۔"
اوپن اے آئی کے وکلاء نے کیمبل کو یہ بھی تسلیم کیا تھا کہ ان کی "قیاس آرائی" میں، اوپن اے آئی کا حفاظتی نقطہ نظر xAI سے بہتر ہے، جس AI کمپنی نے مسک کی بنیاد رکھی تھی جسے اس سال کے شروع میں SpaceX نے حاصل کیا تھا۔
OpenAI اپنے ماڈلز کی تشخیص جاری کرتا ہے اور ایک حفاظتی فریم ورک کو عوامی طور پر شیئر کرتا ہے، لیکن کمپنی نے AGI کی صف بندی کے لیے اپنے موجودہ نقطہ نظر پر تبصرہ کرنے سے انکار کردیا۔ Dylan Scandinaro، تیاری کے اس کے موجودہ سربراہ، فروری میں Anthropic سے خدمات حاصل کی گئی تھیں۔ آلٹ مین نے کہا کہ کرایہ اسے "آج رات بہتر سونے دے گا۔"
تاہم، ہندوستان میں GPT-4 کی تعیناتی ان سرخ جھنڈوں میں سے ایک تھی جس کی وجہ سے OpenAI کے غیر منافع بخش بورڈ نے 2023 میں مختصر طور پر سی ای او سیم آلٹ مین کو برطرف کیا۔ یہ واقعہ اس وقت کے چیف سائنسدان الیا سوٹسکیور اور اس وقت کی سی ٹی او میرا مورتی سمیت ملازمین کی جانب سے Altman کے انتظامی طرز کے تنازعات کے بارے میں شکایت کرنے کے بعد پیش آیا۔ اس وقت بورڈ کی ایک رکن تاشا میکولی نے ان خدشات کے بارے میں گواہی دی کہ آلٹ مین بورڈ کے ساتھ اس کے غیر معمولی ڈھانچے کے کام کرنے کے لیے کافی نہیں آ رہا تھا۔
McCauley نے Altman کے بورڈ کو گمراہ کرنے کے وسیع پیمانے پر رپورٹ کردہ پیٹرن پر بھی تبادلہ خیال کیا۔ قابل ذکر بات یہ ہے کہ آلٹ مین نے بورڈ کے ایک اور رکن سے ہیلن ٹونر کو ہٹانے کے ارادے کے بارے میں جھوٹ بولا، جو بورڈ کی تیسری رکن ہے جس نے ایک وائٹ پیپر شائع کیا جس میں OpenAI کی حفاظتی پالیسی پر کچھ مضمر تنقید بھی شامل تھی۔ آلٹ مین ChatGPT کو عوامی طور پر شروع کرنے کے فیصلے کے بارے میں بورڈ کو مطلع کرنے میں بھی ناکام رہا، اور اراکین دلچسپی کے ممکنہ ٹکراؤ کے بارے میں انکشاف نہ کرنے کے بارے میں فکر مند تھے۔
"ہم ایک غیر منافع بخش بورڈ ہیں اور ہمارا مینڈیٹ یہ تھا کہ ہم اپنے نیچے موجود منافع کی نگرانی کر سکیں،" McCauley نے عدالت کو بتایا۔ "ایسا کرنے کا ہمارا بنیادی طریقہ سوال میں ڈالا جا رہا تھا۔ ہمارے پاس اس بات پر بھروسہ کرنے کے لیے بالکل بھی زیادہ اعتماد نہیں تھا کہ ہمیں جو معلومات پہنچائی جا رہی ہیں، وہ ہمیں باخبر طریقے سے فیصلے کرنے کی اجازت دیتی ہیں۔"
تاہم، Altman کو بوٹ کرنے کا فیصلہ کمپنی کے ملازمین کو ٹینڈر کی پیشکش کے ساتھ ہی آیا۔ McCauley نے کہا کہ جب OpenAI کے عملے نے Altman کا ساتھ دینا شروع کیا اور مائیکروسافٹ نے جمود کو بحال کرنے کے لیے کام کیا، تو بورڈ نے بالآخر الٹ مین کے استعفیٰ دینے کی مخالفت کرتے ہوئے راستہ بدل دیا۔
غیر منافع بخش بورڈ کی غیر منافع بخش تنظیم پر اثر انداز ہونے میں واضح ناکامی کا تعلق براہ راست مسک کے معاملے میں ہے کہ اوپن اے آئی کو ریسرچ آرگنائزیشن سے دنیا کی سب سے بڑی نجی کمپنیوں میں تبدیل کرنے نے تنظیم کے بانیوں کے ضمنی معاہدے کو توڑ دیا۔
کولمبیا لا اسکول کے سابق ڈین ڈیوڈ شیزر جنہیں مسک کی ٹیم ماہر گواہ کے طور پر کام کرنے کے لیے معاوضہ دے رہی ہے، نے میک کولی کے خدشات کی بازگشت کی۔
"اوپن اے آئی نے اس بات پر زور دیا ہے کہ اس کے مشن کا ایک اہم حصہ حفاظت ہے اور وہ منافع پر حفاظت کو ترجیح دینے جا رہے ہیں،" شیزر نے کہا۔ "اس کا ایک حصہ حفاظتی اصولوں کو سنجیدگی سے لے رہا ہے، اگر کسی چیز کو حفاظتی جائزے سے مشروط کرنے کی ضرورت ہے، تو اسے ہونے کی ضرورت ہے۔ عمل کا مسئلہ کیا ہے۔" AI پہلے سے ہی منافع بخش کمپنیوں میں گہرائی سے سرایت کرنے کے ساتھ، یہ مسئلہ ایک لیب سے بہت آگے ہے۔ McCauley نے کہا کہ OpenAI میں اندرونی حکمرانی کی ناکامیاں اعلی درجے کی AI کے مضبوط حکومتی ضابطے کو اپنانے کی ایک وجہ ہونی چاہئیں - "[اگر] یہ سب ایک سی ای او کے فیصلے کرنے پر آتا ہے، اور ہمارے پاس عوام کی بھلائی داؤ پر ہے، یہ بہت کم ہے۔"