کینیڈا کے ایک دور دراز کے راکیز قصبے میں اسکول کی شوٹنگ کے متاثرین کے اہل خانہ ریاستہائے متحدہ کی ایک وفاقی عدالت میں مصنوعی ذہانت کی کمپنی OpenAI کے خلاف مقدمہ دائر کر رہے ہیں، یہ الزام لگاتے ہوئے کہ چیٹ جی پی ٹی بنانے والی کمپنی پولیس کو چیٹ بوٹ کے ساتھ شوٹر کے خطرناک تعاملات سے آگاہ کرنے میں ناکام رہی۔

فروری کی شوٹنگ میں شدید زخمی ہونے والی 12 سالہ مایا گیبالا کی جانب سے بدھ کے روز دائر کیا گیا مقدمہ، برٹش کولمبیا کے ٹمبلر رج میں خاندانوں کے دو درجن سے زیادہ مقدمات میں سے پہلا مقدمہ ہے، جس میں ان کے وکلاء کا کہنا ہے کہ "ایک پوری کمیونٹی OpenAI کو جوابدہ بنانے کے لیے آگے بڑھ رہی ہے"۔

سان فرانسسکو کی ایک وفاقی عدالت میں دائر کیے گئے چھ دیگر مقدموں میں پانچ بچوں اور ایک معلم کی جانب سے موت کے غلط دعووں کا الزام لگایا گیا ہے جو کینیڈا میں برسوں میں ہونے والی سب سے مہلک اجتماعی فائرنگ میں مارے گئے تھے۔

یہ مقدمات ان پانچ مقتول بچوں کے اہل خانہ کی نمائندگی کرتے ہیں جنہیں سکول فائرنگ کا نشانہ بنایا گیا تھا۔ ان میں زوئی بینوئٹ، ایبل موانسا جونیئر، ٹکیریا "ٹکی" لیمپرٹ، کائلی اسمتھ، تمام 12، اور ایجکیل شوفیلڈ، 13، نیز تعلیمی اسسٹنٹ شانڈا ایوگانہ-ڈیورنڈ شامل ہیں۔

پولیس کے مطابق، جیسی وان روٹسیلار، جس کی چیٹ جی پی ٹی کے ساتھ بات چیت مقدموں کے مرکز میں ہے، نے 10 فروری کو اپنے سابقہ ​​اسکول میں ایک تعلیمی معاون اور 12 سے 13 سال کی عمر کے پانچ طالب علموں کو قتل کرنے سے پہلے گھر میں اپنی والدہ اور سوتیلے بھائی کو گولی مار دی۔ وین روٹسیلار، جو 18 سال کے تھے، خودکشی سے مر گئے۔ حملے میں پچیس افراد زخمی بھی ہوئے۔

اوپن اے آئی کے ترجمان نے شوٹنگ کو "ایک المیہ" قرار دیا اور کہا کہ کمپنی تشدد کے ارتکاب میں مدد کے لیے اپنے ٹولز استعمال کرنے کے لیے صفر رواداری کی پالیسی رکھتی ہے۔

"جیسا کہ ہم نے کینیڈین حکام کے ساتھ اشتراک کیا، ہم نے پہلے ہی اپنے تحفظات کو مضبوط کر لیا ہے، بشمول ChatGPT کس طرح پریشانی کی علامات کا جواب دیتا ہے، لوگوں کو مقامی مدد اور ذہنی صحت کے وسائل سے جوڑنا، تشدد کے ممکنہ خطرات کا اندازہ لگانے اور بڑھانے کے طریقہ کو مضبوط بنانا، اور پالیسی کی دوبارہ خلاف ورزی کرنے والوں کا پتہ لگانے کو بہتر بنانا،" ترجمان نے ایک بیان میں کہا۔

سی ای او سیم آلٹ مین نے گزشتہ ہفتے کمیونٹی سے باضابطہ طور پر معذرت کرتے ہوئے ایک خط بھیجا کہ ان کی کمپنی نے شوٹر کے آن لائن رویے کے بارے میں قانون نافذ کرنے والے اداروں کو مطلع نہیں کیا۔

یہ مقدمات مقدمات کی بڑھتی ہوئی لہر کا حصہ ہیں جس میں مصنوعی ذہانت کی کمپنیوں پر چیٹ بوٹ کے تعاملات کو روکنے میں ناکامی کا الزام لگایا گیا ہے جس کے بارے میں مدعی کہتے ہیں کہ وہ خود کو نقصان پہنچانے، ذہنی بیماری اور تشدد کا باعث بنتے ہیں۔ وہ امریکہ میں پہلے شخص ہیں جنہوں نے یہ الزام لگایا کہ ChatGPT نے بڑے پیمانے پر شوٹنگ کی سہولت فراہم کرنے میں کردار ادا کیا۔

جے ایڈلسن، جو مدعیان کی نمائندگی کر رہے ہیں، نے کہا کہ وہ آنے والے ہفتوں میں کمپنی کے خلاف شوٹنگ سے متاثرہ دیگر افراد کی جانب سے مزید دو درجن مقدمے دائر کرنے کا ارادہ رکھتے ہیں۔

ایک شکایت کے مطابق، جون 2025 میں OpenAI کے خودکار نظاموں نے ChatGPT بات چیت کو جھنڈا لگایا جس میں حملہ آور نے بندوق کے تشدد کے منظرنامے بیان کیے تھے۔

کمپنی کی اندرونی بات چیت کے بارے میں فروری کے وال سٹریٹ جرنل کے مضمون کا حوالہ دیتے ہوئے، شکایت میں کہا گیا کہ سیفٹی ٹیم کے ارکان نے یہ نتیجہ اخذ کرنے کے بعد پولیس سے رابطہ کرنے کی سفارش کی کہ اسے نقصان کا ایک قابل اعتبار اور آسنن خطرہ ہے۔

لیکن Altman اور دیگر OpenAI قیادت نے حفاظتی ٹیم کو مسترد کر دیا، اور پولیس کو کبھی نہیں بلایا گیا، مقدمہ کا الزام ہے۔ مقدمہ میں کہا گیا ہے کہ شوٹر کا اکاؤنٹ غیر فعال کر دیا گیا تھا، لیکن وہ ایک نیا اکاؤنٹ بنانے اور پلیٹ فارم کا استعمال جاری رکھنے میں کامیاب رہی۔

وال سٹریٹ جرنل کی رپورٹ کے بعد، کمپنی نے کہا کہ اکاؤنٹ کو ایسے سسٹمز کے ذریعے جھنڈا لگایا گیا ہے جو "پرتشدد سرگرمیوں کو بڑھانے میں ہمارے ماڈلز کے غلط استعمال" کی نشاندہی کرتے ہیں لیکن قانون نافذ کرنے والے اداروں کو رپورٹ کرنے کے اپنے داخلی معیار پر پورا نہیں اترتے۔

قانونی چارہ جوئی کا الزام ہے کہ "متاثرین نے یہ نہیں سیکھا کیونکہ OpenAI آنے والا تھا، لیکن اس لیے کہ اس کے اپنے ملازمین نے اسے وال اسٹریٹ جرنل میں لیک کر دیا جب کہ وہ کمپنی کی خاموشی کو مزید برداشت نہیں کر سکتے۔"

منگل کو شائع ہونے والے ایک بلاگ میں، OpenAI نے کہا کہ وہ اپنے ماڈلز کو ایسی درخواستوں سے انکار کرنے کی تربیت دیتا ہے جو "معنی طور پر تشدد کو فعال کر سکتی ہیں" اور قانون نافذ کرنے والے اداروں کو مطلع کرتی ہے جب بات چیت "دوسروں کو نقصان پہنچانے کا ایک آسنن اور قابل اعتبار خطرہ" تجویز کرتی ہے، دماغی صحت کے ماہرین سرحدی معاملات کا جائزہ لینے میں مدد کرتے ہیں۔ کمپنی نے کہا کہ وہ استعمال اور ماہرانہ ان پٹ کی بنیاد پر اپنے ماڈلز اور پتہ لگانے کے طریقوں کو مسلسل بہتر کرتی ہے۔

مقدمے میں ہرجانے کی غیر متعینہ رقم اور عدالتی حکم کا مطالبہ کیا گیا ہے جس میں اوپن اے آئی کو لازمی قانون نافذ کرنے والے ریفرل پروٹوکول سمیت اپنے حفاظتی طریقوں پر نظر ثانی کرنے کی ضرورت ہے۔ ایڈلسن نے کہا کہ متاثرین میں سے ایک نے اصل میں کینیڈا کی عدالت میں اپنا مقدمہ دائر کیا لیکن کیلیفورنیا میں دعووں کی پیروی کرنے کے لیے اسے مسترد کر دیا۔ یہ مقدمے حالیہ مہینوں میں امریکی ریاست اور وفاقی عدالتوں میں دائر کیے گئے اسی طرح کے مقدمات کی پیروی کرتے ہیں جن میں الزام لگایا گیا ہے کہ ChatGPT نے نقصان دہ رویے، خودکشی، اور کم از کم ایک کیس میں قتل اور خودکشی کی سہولت فراہم کی۔

مقدمات، ابھی ابتدائی مراحل میں ہیں، توقع کی جاتی ہے کہ یہ جانچے جائیں گے کہ تشدد کو فروغ دینے میں AI پلیٹ فارم کیا کردار ادا کر سکتا ہے اور آیا کمپنیوں کو صارف کے اعمال کے لیے ذمہ دار ٹھہرایا جا سکتا ہے۔ اوپن اے آئی نے ان دعوؤں کی تردید کی ہے، اور قتل خودکشی کیس میں یہ دلیل دی ہے کہ مجرم کی ذہنی بیماری کی ایک طویل تاریخ تھی۔