ڏورانهين ڪينيڊين راڪيز شهر ۾ اسڪول جي فائرنگ جي متاثرن جا خاندان آمريڪا جي هڪ وفاقي عدالت ۾ مصنوعي ذهانت واري ڪمپني OpenAI تي ڪيس داخل ڪري رهيا آهن، الزام هنيو آهي ته چيٽ جي پي ٽي ٺاهيندڙ پوليس کي چيٽ بوٽ سان شوٽر جي خطرناڪ ڳالهه ٻولهه کان خبردار ڪرڻ ۾ ناڪام ٿيو.
اربع تي هڪ مقدمو داخل ڪيو ويو 12 سالن جي مايا گبالا جي طرفان، جيڪا فيبروري جي فائرنگ ۾ سخت زخمي ٿي وئي هئي، ٽمبلر رج، برٽش ڪولمبيا ۾ خاندانن جي ٻن درجن کان وڌيڪ ڪيسن مان پهريون آهي، جنهن ۾ انهن جي وڪيلن جو چوڻ آهي ته "هڪ پوري ڪميونٽي جي نمائندگي ڪري ٿي جيڪا OpenAI کي احتساب ڪرڻ لاء اڳتي وڌي رهي آهي".
سان فرانسسڪو جي وفاقي عدالت ۾ داخل ڪيل ڇهه ٻيا ڪيس پنجن ٻارن جي طرفان غلط موت جي دعويٰ ۽ هڪ تعليم ڏيندڙ کي ڪئناڊا ۾ سالن ۾ سڀ کان وڏي قتل عام جي شوٽنگ ۾ قتل ڪيو ويو.
ڪيس اسڪول جي فائرنگ ۾ مارجي ويل پنجن ٻارن جي خاندانن جي نمائندگي ڪن ٿا. انهن ۾ زوئي بينوٽ، ايبل موانسا جونيئر، ٽڪيريا "ٽڪي" لامپرٽ، ڪيلي سمٿ، سڀ 12، ۽ ايزيڪيل شوفيلڊ، 13، انهي سان گڏ تعليمي اسسٽنٽ شانندا ايويگانا-ڊيورنڊ شامل آهن.
جيسي وان روٽسيلار، جن جي ChatGPT سان ڳالهه ٻولهه مقدمن جي مرڪز ۾ آهن، پوليس جي مطابق، 10 فيبروري تي هڪ تعليمي اسسٽنٽ ۽ 12 کان 13 سالن جي عمر جي پنجن شاگردن کي قتل ڪرڻ کان اڳ گهر ۾ پنهنجي ماءُ ۽ سوتيلي ڀاءُ کي گوليون هڻي قتل ڪيو. وان روٽسيلار، جيڪو 18 هو، پوء خودڪشي ڪري مري ويو. حملي ۾ 25 ڄڻا زخمي پڻ ٿيا.
هڪ OpenAI جي ترجمان شوٽنگ کي ”هڪ سانحو“ قرار ڏنو ۽ چيو ته ڪمپني تشدد کي انجام ڏيڻ ۾ مدد لاءِ پنهنجا اوزار استعمال ڪرڻ لاءِ صفر رواداري واري پاليسي رکي ٿي.
"جيئن اسان ڪينيڊا جي آفيسرن سان حصيداري ڪئي، اسان اڳ ۾ ئي اسان جي حفاظت کي مضبوط ڪيو آهي، جنهن ۾ بهتر ڪيو ويو آهي ته ڪيئن ChatGPT پريشاني جي نشانين جو جواب ڏئي ٿو، ماڻهن کي مقامي مدد ۽ ذهني صحت جي وسيلن سان ڳنڍڻ، مضبوط ڪرڻ ڪيئن اسان تشدد جي امڪاني خطرن جو اندازو لڳايو ۽ وڌايو، ۽ ٻيهر پاليسي جي ڀڃڪڙي ڪندڙن جي نشاندهي کي بهتر بڻائڻ،" ترجمان هڪ بيان ۾ چيو.
سي اي او سام الٽمن هڪ خط موڪليو گذريل هفتي رسمي طور تي ڪميونٽي کان معافي گهري ته هن جي ڪمپني شوٽر جي آن لائن رويي بابت قانون لاڳو ڪندڙ ادارن کي مطلع نه ڪيو.
ڪيس ڪيسن جي وڌندڙ لهر جو حصو آهن مصنوعي انٽيليجنس ڪمپنين تي الزام لڳائي رهيا آهن ته اهي چيٽ بٽ جي ڳالهه ٻولهه کي روڪڻ ۾ ناڪام ٿي ويا آهن جيڪي مدعي چون ٿا ته پاڻ کي نقصان پهچائڻ ، ذهني بيماري ۽ تشدد ۾ حصو وٺن ٿا. اهي ظاهر ٿيندا آهن ته آمريڪا ۾ پهريون ڀيرو اهو الزام آهي ته ChatGPT هڪ ڪاميٽي شوٽنگ کي سهولت ڏيڻ ۾ ڪردار ادا ڪيو.
جي ايڊلسن، جيڪو مدعين جي نمائندگي ڪري رهيو آهي، چيو ته هو ايندڙ هفتن ۾ ڪمپني جي خلاف شوٽنگ کان متاثر ٻين جي طرفان ٻه درجن ڪيس داخل ڪرڻ جو ارادو رکي ٿو.
هڪ شڪايت جي مطابق، OpenAI جي خودڪار نظام جون 2025 ۾ ChatGPT گفتگو کي پرچم ڪيو جنهن ۾ حملي آور بندوق تشدد جي منظرنامي کي بيان ڪيو.
حفاظتي ٽيم جي ميمبرن پوليس سان رابطو ڪرڻ جي سفارش ڪئي ان نتيجي تي پهچڻ کانپوءِ ته هوءَ نقصان جو هڪ معتبر ۽ امڪاني خطرو آهي ، شڪايت چيو ، ڪمپني جي اندروني بحثن بابت فيبروري کان وال اسٽريٽ جرنل آرٽيڪل جو حوالو ڏيندي.
پر Altman ۽ ٻين OpenAI قيادت حفاظتي ٽيم کي ختم ڪري ڇڏيو، ۽ پوليس کي ڪڏهن به نه سڏيو ويو، مقدمو الزام آهي. شوٽر جو اڪائونٽ غير فعال ڪيو ويو، پر هوء هڪ نئون اڪائونٽ ٺاهي ۽ پليٽ فارم استعمال ڪندي پنهنجي حملي جي منصوبابندي ڪرڻ جي قابل هئي، مقدمو چوي ٿو.
وال اسٽريٽ جرنل جي رپورٽ جي پٺيان، ڪمپني چيو ته اڪائونٽ سسٽم طرفان پرچم ڪيو ويو آهي "پرتشدد سرگرمين کي اڳتي وڌائڻ ۾ اسان جي ماڊل جي غلط استعمال" جي نشاندهي ڪئي وئي پر قانون لاڳو ڪندڙ ادارن کي رپورٽ ڪرڻ لاء ان جي اندروني معيار کي پورو نه ڪيو.
مقدمن جو الزام آهي ته ”متاثرين اهو نه سکيو ڇاڪاڻ ته اوپن اي آءِ ايندڙ هئي، پر ڇاڪاڻ ته ان جي پنهنجي ملازمن ان کي وال اسٽريٽ جرنل ڏانهن ليڪ ڪيو بعد ۾ اهي ڪمپني جي خاموشي کي ختم نه ڪري سگهيا.
اڱاري تي شايع ٿيل هڪ بلاگ ۾، OpenAI چيو ته اهو پنهنجي ماڊلز کي تربيت ڏئي ٿو درخواستن کي رد ڪرڻ لاء جيڪي "معنيٰ طور تي تشدد کي چالو ڪري سگھن ٿيون" ۽ قانون لاڳو ڪندڙ کي اطلاع ڏئي ٿي جڏهن گفتگو "ٻين کي نقصان پهچائڻ جو هڪ امڪاني ۽ معتبر خطرو" جو مشورو ڏئي ٿو، ذهني صحت جي ماهرن سان سرحد لائن ڪيسن جو جائزو وٺڻ ۾ مدد ڪندي. ڪمپني چيو ته اها مسلسل پنهنجي ماڊل ۽ ڳولڻ جي طريقن کي بهتر بڻائي ٿي استعمال ۽ ماهر ان پٽ جي بنياد تي.
مقدمو نقصانن جي اڻ ڄاڻايل رقم ۽ عدالتي حڪم جي طلب ڪري ٿو جيڪو OpenAI کي ان جي حفاظت جي عملن کي ختم ڪرڻ جي ضرورت آهي، بشمول لازمي قانون لاڳو ڪندڙ ريفرل پروٽوڪولز. متاثرين مان هڪ اصل ۾ ڪينيڊا جي عدالت ۾ پنهنجو ڪيس داخل ڪيو پر ڪيليفورنيا ۾ دعوائن جي پيروي ڪرڻ لاءِ ان کي رد ڪري ڇڏيو، ايڊلسن چيو. ڪيس گذريل مهينن ۾ آمريڪي رياست ۽ وفاقي عدالتن ۾ داخل ڪيل ساڳين ڪيسن جي پيروي ڪندا آهن جن تي الزام آهي ته چيٽ جي پي ٽي نقصانڪار رويو، خودڪشي، ۽ گهٽ ۾ گهٽ هڪ ڪيس ۾، هڪ قتل خودڪشي جي سهولت ڏني.
ڪيس، اڃا شروعاتي مرحلن ۾ آهن، توقع ڪئي ويندي آهي ته ٽيسٽ ڪيو وڃي ته AI پليٽ فارم تشدد کي فروغ ڏيڻ ۾ ڪهڙو ڪردار ادا ڪري سگهي ٿو ۽ ڇا ڪمپنيون صارف جي عملن لاءِ ذميوار ٿي سگهن ٿيون. OpenAI دعوي کي رد ڪري ڇڏيو آهي، قتل-خودڪشي ڪيس ۾ بحث ڪيو ويو آهي ته مجرم ذهني بيماري جي ڊگهي تاريخ هئي.





