Global Editions

فوجی مقاصد کےلئےمسلح روبوٹس خطرناک کیسے؟

مصنوعی ذہانت کی حامل مشینوں کو خطرناک ہتھیاروں کا کنٹرول دینے کے خلاف مہم کا آغاز ہو گیا ہے۔ گزشتہ ہفتے ہزاروں سائنسدانوں، تحقیق کاروں، تکنیک کاروں نے مصنوعی ذہانت کی حامل مشینوں کو خطرناک ہتھیاروں کا کنٹرول دینے کے خدشے کے پیش نظر اقوام متحدہ اور دیگر عالمی اداروں کو اپنے دستخط شدہ مراسلہ ارسال کیا ہے جس میں مطالبہ کیا گیا ہے کہ مستقبل میں ایسے کسی اقدام سے دنیا اور انسانیت کو خطرات لاحق ہو سکتے ہیں، کیونکہ مصنوعی ذہانت کی حامل کی مشینیں زیادہ مستعد، کم قابل گرفت اور جذبات سے عاری ہوتی ہیں لہذا میدان جنگ کے اندر یا باہر انہیں کسی پیچیدہ صورتحال کے پیش نظر قابو میں رکھنا مشکل ہو سکتا ہے۔ اس خط سے یہ بحث ایک مرتبہ پھر شروع ہوگئی ہے کہ مصنوعی ذہانت کی حامل مشینوں یعنی روبوٹس پر اس حد تک اعتماد کیا جا سکتا ہے کہ انہیں خطرناک ہتھیاروں سے لیس کیا جائے۔ اس خط کو ارجنٹائن کے شہر بیونس آئرس  میں منعقد ہونے والی مصنوعی ذہانت پر پہلی مشترکہ کانفرنس میں پیش کیا گیا اور اس دستخط کرنے والوں میں معروف سائنسدان اور تحقیق کار جن میں ایلن مسک (Elon Musk) سٹیفن ہاکنز (Stephen Hawking) اور سٹیو وزنائیک(Steve Woznaik) شامل ہیں۔ خط میں کہا گیا کہ مصنوعی ذہانت کی ٹیکنالوجی اب اس جہت تک جا پہنچی ہے جہاں اس نظام کو عملی طور پر (اگر وہ قانونی نہیں) آنے والے برسوں، دہائیوں تک نصب کرنے کے نہایت خطرات لاحق ہو سکتے ہیں۔ گن پائوڈر اور نیوکلیائی ہتھیاروں کے بعد خودکار ہتھیار جنہیں جنگوں کے تیسرے انقلاب  کے نام سے موسوم کیا جاتا ہے، کا مصنوعی ذہانت کی حامل مشینوں کے ذریعے استعمال کی کسی بھی طرح حوصلہ افزائی نہیں کی جا سکتی اور نہ ہی کرنا چاہیے۔

حالیہ برسوں میں اگرچہ مصنوعی ذہانت اور مشینی آموزش کے شعبے میں بہت تیزی سے ترقی ہوئی ہے، جیسے کمپیوٹر کے استعمال کے ذریعے بہت بڑے ڈیٹا بیس کو کنٹرول کرنا ہے تاہم اس ترقی سے ٹیکنالوجی کے درست سمت میں استعمال سے متعلق بھی بنیادی سوال پیدا ہوئے ہیں۔ مزید برآں عسکری شعبے میں ہونے والی ترقی کے تحت بھی کئی ایسے شعبوں میں مصنوعی ذہانت کی حامل مشینوں کے استعمال میں اضافہ ہوا ہے جیسے خودکار ڈرونز کا فوجی مقاصد کے لئے استعمال یا بم ناکارہ بنانے والے روبوٹس۔ ایسی مشینوں کے دفاعی مقاصد کے لئے استعمال ہونے سے یہ خدشات بھی پیدا ہوئے ہیں کہ مستقبل میں ایسے کئی اور شعبوں میں بھی خودکار مشینیں استعمال ہو سکتی ہیں۔ خطرناک اور خودکار ہتھیاروں کا استعمال بھی کچھ عرصے تک فوجی، پولیس ماہرین اور سائنسدانوں کے لئے تشویش کا سبب رہا ہے،سال 2012 میں امریکی محکمہ دفاع نے ایک حکم نامہ جاری کیا جس کے تحت خودکار اور نیم خودکار ہتھیاروں کی تنصیب او ر اس کے استعمال پر دس سال کی پابندی عائد کی گئی۔رواں سال کے آغاز پر اقوام متحدہ کے تحت ہونے والے ایک اجلاس میں خطرناک خودکار ہتھیاروں کے پر پابندی عائد کرنے کے امکانات پر غور کیا گیا۔ دوسری جانب ایسی سوچ بھی موجود ہے جو یہ سمجھتے ہیں کہ روبوٹس کو زیادہ خودکار کیا جانا چاہیے ان کا خیال ہے کہ مصنوعی ذہانت کی حامل خودکار مشینیں جو انسانی معاونت کے بغیر کام کرنے کی صلاحیت رکھتی ہیں کا خطرناک مشنز میں استعمال زیادہ غیر حقیقی ہے کیونکہ مصنوعی ذہانت کے شعبے میں ابھی بہت کام ہونا باقی ہے، ٹیکنالوجی کو اس نہج تک لانا باقی ہے جہاں مکمل خودکار ہتھیاروں کی تیاری اور استعمال کو مصنوعی ذہانت کی حامل مشینوں کے ذریعے ممکن بنایا جا سکے۔ کیلی فورنیا پولی ٹیکنیک سٹیٹ یونیورسٹی کے پروفیسر پیٹرک لِن (Patrick Lin) کا کہنا ہے کہ کئی لوگ اس خدشے کا درست اظہار کر رہے ہیں کہ اگر ٹیکنالوجی اس نہج تک ترقی کر گئی جہاں مکمل خودکاری ممکن ہو سکی تو کیا ہوگا لیکن میں یہ کہنا چاہتا ہوں کہ ابھی کوئی اس حد تک ماہر نہیں ہو سکا کہ مستقبل کی پیش گوئی کر سکے۔ لِن جنہوں نے حال ہی میں اسی حوالے سے اقوام متحدہ کے اجلاس میں اپنے خیالات کا اظہار کیا ہے کا کہنا ہے کہ سائنسی برادری سے منسلک افراد کا زیر بحث خط نے اس پیچیدہ اخلاقی بحث کو چھیڑا ہی نہیں جو مکمل خودکاری کے حصول کے بعد پیدا ہو گی تاہم اس خط سے اس ضمن میں آگاہی ضرور پیدا ہوئی ہے۔ ہمیں اس معاملے کی پیچیدگی کو دیکھنا ہے اور آپ سب نے اس ضمن میں ہمارا ساتھ دیناہے۔

Wil Knight تحریر : ول نائیٹ

Read in English

Authors

*

Top