ایک کمپیوٹر وار گیم کی یاد دلانے والے ایک منظر میں، تین جنگی تھکے ہوئے سپاہی، سفید برف کی چھلاورن میں ملبوس، ایک جنگ زدہ گلی سے اپنے ہاتھ سر پر اٹھائے ہوئے نکلتے ہیں۔

وہ نیچے جھک جاتے ہیں، ان پر دھماکے کیے جانے کے احکامات کے بعد، خوف اور صدمہ ان کے چہروں پر چھا جاتا ہے جب وہ ایک نام نہاد زمینی روبوٹ پر نصب مشین گن کے بیرل کو دیکھتے ہیں۔

یوکرین کی دفاعی کمپنی ڈیوڈروڈ کی جانب سے جنوری میں جاری ہونے والی اس فوٹیج کے بارے میں کہا جاتا ہے کہ یہ وہ لمحہ دکھایا گیا ہے جب روسی فوجیوں کو مصنوعی ذہانت کا استعمال کرتے ہوئے یوکرین کے روبوٹ نے پکڑا تھا۔

اپریل میں، یوکرین کے صدر ولادیمیر زیلینسکی نے کہا کہ، "اس جنگ کی تاریخ میں پہلی بار، بغیر پائلٹ کے پلیٹ فارمز - زمینی نظام اور ڈرونز کے ذریعے خصوصی طور پر دشمن کی پوزیشن لی گئی"۔

"گراؤنڈ روبوٹک سسٹم پہلے ہی صرف تین مہینوں میں محاذ پر 22000 سے زیادہ مشنز انجام دے چکے ہیں،" انہوں نے X پر ایک پوسٹ میں ٹینک کی پٹریوں اور اوپر نصب ہتھیاروں والی سبز مشینوں کی تصاویر کے ساتھ لکھا۔

لیکن ان تجزیہ کاروں کے لیے جنہوں نے مصنوعی ذہانت (AI) اور جنگ کے سلسلے کا مطالعہ کیا ہے، فوٹیج ایک متوقع ارتقاء کی عکاسی کرتی ہے - جو کہ یوکرین میں فرنٹ لائنز سے بہت آگے نکلے گی جب دنیا اسے کنٹرول کرنے کے اخلاقی مضمرات سے لڑ رہی ہے۔

برسوں سے، فوجیں بنیادی طور پر بم کو ناکارہ بنانے اور جاسوسی کے لیے زمینی روبوٹ استعمال کرتی رہی ہیں۔

لیکن یوکرین میں، ان کے کردار میں تیزی سے توسیع ہوئی ہے، کچھ بریگیڈز نے اطلاع دی ہے کہ 70 فیصد تک فرنٹ لائن سپلائی اب فوجیوں کے بجائے روبوٹک سسٹمز کے ذریعے فراہم کی جاتی ہے۔

یہ مشینیں گولہ بارود، خوراک اور طبی سامان پہنچاتی ہیں اور زخمی فوجیوں کو خطرناک جگہوں سے نکالتی ہیں۔

پھر بھی میدان جنگ میں روبوٹک نظاموں کی حرکت کا نظارہ جنگ میں ایک وسیع تر تبدیلی کا حصہ ہے – جو کئی دہائیوں سے بنا رہا ہے۔

جنگ میں AI کے بارے میں جدید بحث بڑی حد تک 2000 کی دہائی کے اوائل میں امریکی بغیر پائلٹ کے فضائی گاڑیوں (UAV) کی کارروائیوں کے عروج کی وجہ سے ہوئی۔

2002 میں، MQ-1 پریڈیٹر ڈرون کو امریکہ نے افغانستان میں پہلے ہدف بنائے گئے فضائی حملوں میں سے ایک کو انجام دینے کے لیے استعمال کیا، جس سے یہ ایک اہم موڑ تھا کہ جنگیں دور سے کیسے لڑی جا سکتی ہیں۔

اس کا استعمال 2000 کی دہائی کے دوران تیزی سے پھیلتا گیا اور 2000 کی دہائی کے آخر سے 2010 کی دہائی کے وسط میں خاص طور پر پاکستان، یمن اور صومالیہ میں عروج پر پہنچ گیا۔

جیسا کہ AI نے ترقی کی ہے، بحث ریموٹ کنٹرول آپریشنز سے آگے بڑھ گئی ہے۔

توجہ ایسے نظاموں کی طرف مبذول کرائی گئی جو اہداف کی نشاندہی کرنے، حملوں کو ترجیح دینے اور میدان جنگ کے فیصلوں کی رہنمائی کرنے میں مدد کر سکتے ہیں، اس بارے میں گہرے سوالات اٹھاتے ہیں کہ مشینوں کو کتنی خود مختاری سونپی جانی چاہیے۔

تجزیہ کاروں کا کہنا ہے کہ خود مختاری کا سوال مرکزی ہونا چاہیے، بجائے اس کے کہ تیز رفتار تکنیکی ترقیوں کے زیر سایہ پڑے، تاہم میدان جنگ میں بڑھتی ہوئی بشری شکل کی مشینوں کی نظر کو متاثر کر سکتا ہے۔

یونیورسٹی آف نیو ساؤتھ ویلز میں اے آئی کے ماہر ٹوبی والش نے الجزیرہ کو بتایا، "یہ ٹیکنالوجیز یہاں رہنے کے لیے ہیں۔" انہوں نے AI سے چلنے والی فوجی کارروائیوں کو "جنگ کا تیسرا انقلاب" قرار دیا۔

تبدیلی زمینی اہداف سے بھی آگے پھیل رہی ہے۔

دھماکہ خیز مواد سے بھرے بحری ڈرونز نے پہلے ہی بحیرہ اسود میں لڑائیوں کو نئی شکل دی ہے، جبکہ دنیا بھر میں فوجیوں کی طرف سے نگرانی، بارودی سرنگوں کی صفائی اور تخریب کاری کے مشن کے لیے خود مختار زیر آب نظام تیار کیے جا رہے ہیں۔

دریں اثنا، روبوٹک کتوں کو پہلے ہی نگرانی، جاسوسی اور بم کو ناکارہ بنانے کے مشن کے لیے تجربہ کیا جا رہا ہے، جن میں کچھ تجرباتی ورژن بھی ہتھیاروں سے لیس ہیں۔

حالیہ برسوں میں، مکمل طور پر خود مختار ڈرونز یا نام نہاد "قاتل روبوٹس" کے ظہور نے ایک شدید بحث کو جنم دیا ہے جب اقوام متحدہ کی ایک رپورٹ میں بتایا گیا تھا کہ ترکی کے ساختہ Kargu-2 loitering بارودی ڈرون، جو مکمل طور پر خود مختار موڈ میں کام کر رہے ہیں، نے 2020 میں لیبیا میں جنگجوؤں کی نشاندہی کی اور ان پر حملہ کیا۔

اس واقعے نے دنیا بھر کے ماہرین، کارکنوں اور سفارت کاروں کے درمیان شدید بحث و مباحثے کو جنم دیا، کیونکہ وہ مشین بنانے اور اس پر عمل درآمد کے انسانی جان لینے کے فیصلے کے اخلاقی اور اخلاقی مضمرات سے دوچار ہوئے۔

تاہم، نیم خودمختار ہتھیاروں کے نظام کے استعمال کے بارے میں ریگولیٹری بحث پر زیادہ توجہ مرکوز کرنے کی ضرورت ہے، "جہاں انسان اب بھی نام نہاد لوپ میں ہیں"، انا نادیبیڈزے، جو سنٹر فار وار اسٹڈیز، یونیورسٹی آف سدرن ڈنمارک میں بین الاقوامی سیاست کی پوسٹ ڈاکٹرل محقق ہیں، نے الجزیرہ کو بتایا۔

اس نے کہا، ایک بڑی تشویش یہ ہے کہ کیا "انسانی فیصلے کی مشق جو جنگ کے تناظر میں ضروری ہے" کے لیے "کافی وقت اور جگہ" دی جا رہی ہے۔ انسانی شمولیت کی حد اکثر ایسی چیز ہوتی ہے جس میں مبصرین کو ان کی بات پر فوجیوں کو لینا پڑتا ہے۔ ٹوبی والش نے کہا کہ ایک مشکل کام جب ان کے کاموں سے بھروسہ کم ہو جاتا ہے۔

یوکرین میں زمینی روبوٹکس کے معاملے میں، ایک انسانی آپریٹر، اب تک، کنٹرول میں رہا ہے، مشینوں کو ہدایت کرتا ہے جو اب بھی ناہموار خطوں جیسی رکاوٹوں سے روکا جا سکتا ہے۔

تاہم، جب AI فیصلہ سازی کے عمل میں شامل ہوتا ہے، جیسا کہ غزہ اور وسیع علاقے پر اسرائیل کے حملوں میں ہوتا ہے، تو حملوں کا وہ پیمانہ جس کے نتیجے میں "بڑی تعداد میں فوجی اہداف کے لیے بھاری نقصان اور شہری ہلاکتیں" بین الاقوامی انسانی قانون کے اصولوں کو چیلنج کرتی ہیں اور خاص طور پر تناسب کے خیال، والش نے کہا۔

نادیبیڈزے نے کہا کہ مسئلہ یہ ہے کہ جنگ میں AI کے استعمال سے متعلق قوانین کو نافذ کرنا مشکل ہے کیونکہ یہ بنیادی طور پر "ہر ایک فوجی کا معاملہ ہے کہ وہ یہ فیصلہ کرے کہ وہ انسان کے لیے شہریت کا کیا کردار سمجھتے ہیں، اور اس پر کافی بین الاقوامی بحث نہیں ہے"۔

سٹاک ہوم انٹرنیشنل پیس ریسرچ انسٹی ٹیوٹ کی اپریل کی ایک رپورٹ میں خبردار کیا گیا ہے کہ AI سپلائی چین بھی بکھری ہوئی ہے، عالمی اور شہری ٹیکنالوجیز پر بہت زیادہ انحصار کرتی ہے، جس سے AI کے فوجی استعمال کو کنٹرول کرنے یا کنٹرول کرنے کی کوششیں مزید پیچیدہ ہو جاتی ہیں۔

ریاستہائے متحدہ کا محکمہ دفاع اور پینٹاگون مسلسل نجی طور پر تیار کردہ سافٹ ویئر سسٹمز کو اپنے جنگی آلات میں شامل کر رہے ہیں۔

پچھلے سال کے وسط میں، محکمہ دفاع نے اوپن اے آئی کو امریکی فوج میں جنریٹو AI کو لاگو کرنے کے لیے $200m کا ٹھیکہ دیا، اس کے ساتھ ساتھ xAI اور Anthropic کے لیے $200m کے معاہدے۔

"اگر ہم محتاط نہیں رہے تو جنگ بہت زیادہ خوفناک، بہت زیادہ مہلک، بہت تیز، بہت تیز چیز ہوگی جس میں انسان اب حقیقتاً شریک نہیں ہو سکتے، کیونکہ انسانوں کے پاس رفتار نہیں ہوگی، درستگی یا جواب دینے کی صلاحیت نہیں ہوگی،" والش نے خبردار کیا۔

ماہرین کا کہنا ہے کہ ٹیکنالوجی اور اے آئی فطری طور پر نقصان دہ نہیں ہیں - یہ اس بات کی اہمیت رکھتا ہے کہ انہیں کس طرح استعمال کیا جاتا ہے۔

یوکرین میں، زمینی روبوٹک نظام شہریوں کو بچانے اور بھاری کان کنی اور غدار حالات میں لاجسٹک مدد فراہم کرنے کے لیے بھی استعمال کیے گئے ہیں۔

اس کے باوجود فرنٹ لائن پر جو کچھ سامنے آرہا ہے وہ بہت سے طریقوں سے ایک آزمائشی میدان ہے، اور بین الاقوامی برادری کو یہ دیکھنے کی ضرورت ہوگی کہ مستقبل کے تنازعات میں ان ٹیکنالوجیز کو کس طرح لاگو اور منظم کیا جاسکتا ہے۔

محتاط رجائیت کی بھی گنجائش ہے۔ غزہ میں اسرائیل کے اقدامات پر "اخلاقی ناکامی" کے باوجود، والش نے کہا، بین الاقوامی برادری میں یہ تسلیم کیا گیا ہے کہ ان مسائل پر توجہ دی جانی چاہیے، بشمول اقوام متحدہ کے اجلاسوں کا ایک سلسلہ جس میں مہلک خود مختار ہتھیاروں کے نظام کو منظم کرنے پر توجہ دی گئی تھی۔

اقوام متحدہ کے ادارہ برائے تخفیف اسلحہ کی تحقیق (UNIDIR)، اقوام متحدہ کے اندر ایک خود مختار ادارہ ہے جو تخفیف اسلحہ اور بین الاقوامی سلامتی پر آزادانہ تحقیق کرتا ہے، بین الاقوامی امن اور سلامتی کے لیے AI کے مضمرات کا جائزہ لینے کے لیے جون میں ملاقات کرنے والا ہے۔

والش نے ایک مثال کے طور پر کیمیائی ہتھیاروں کی طرف اشارہ کرتے ہوئے کہا کہ یہ پہلا موقع نہیں ہے کہ ہتھیاروں کی نئی ٹیکنالوجیز نے قواعد پر مبنی حکم کو ختم کرنے کی دھمکی دی ہو۔ نامکمل ہونے کے باوجود، بین الاقوامی معاہدوں کو بالآخر کسی نہ کسی سطح کے کنٹرول میں لانے کے لیے رکھا گیا۔

"گلوبل ساؤتھ میں بہت سارے اداکار موجود ہیں جو ریگولیشن چاہتے ہیں، لہذا وہاں علاقائی اقدامات کی تشکیل ہو سکتی ہے،" نادیبیڈزے نے کہا، انہوں نے مزید کہا کہ اگر اس طرح کی کوششوں میں ابتدائی طور پر بڑی طاقتیں یا سرکردہ ٹیک ڈویلپرز شامل نہیں ہیں، تب بھی وہ ابھرتے ہوئے اصولوں کو تشکیل دینے میں مدد کر سکتے ہیں۔