Global Editions

ہم خطرناک مصنوعی ذہانت سے خود کو کس طرح محفوظ رکھ سکتے ہيں؟

ایسی نئی تحقیق سامنے آئی ہے جس سے ڈیپ لرننگ کا فائدہ اٹھانا اور بھی زیادہ مشکل ہوجائے گا۔

کچھ عرصہ پہلے یو سی برکلے کی پروفیسر ڈون سونگ نے ایم آئی ٹی کی سالانہ ایم ٹیک ڈیجیٹل کانفرنس میں بتایا کہ انہوں نے ایک خودکار گاڑی کو سٹکرز دکھا کر یہ تاثر دیا کہ اسے خود کو روکنے کے بجائے اپنی رفتار بڑھا دینی چاہیے، اور انہوں نے جھوٹے پیغامات تخلیق کرکے ایک ٹیکسٹ استعمال کرنے والے ماڈل سے کریڈٹ کارڈ کے نمبرز جیسی حساس معلومات اگلوائی۔ اس کے علاوہ، وہائٹ ہیٹ ہیکرز نے بھی سٹکرز استعمال کرکے ایک ٹیسلا آٹو پائلٹ کو ٹریفک میں آگے بڑھنے پر اکسایا۔

پچھلے چند سالوں میں ہماری زندگیوں میں ڈیپ لرننگ سسٹمز کی اہمیت میں بہت زیادہ اضافہ ہوگیا ہے۔ محققین نے تصویریں زمرہ بند کرنے کی مشینوں سے لے کر کینسر کی تشخیص کے نظاموں تک، ہر قسم کے سسٹم پر نقصان دہ مصنوعی ذہانت کے اثرات کی کئی مثالیں پیش کی ہیں، جن میں سے کچھ بے ضرر ہیں، لیکن چند اثرات جان لیوہ بھی ثابت ہوسکتے ہیں۔ تاہم ان خطرات کے باوجود اب تک اس نقصان دہ مصنوعی ذہانت کے متعلق مکمل طور پر سمجھ بوجھ حاصل نہيں ہوسکی ہے اور محققین یہ سوچ رہے ہیں کہ کیا اس مسئلے کا حل ممکن ہے؟

ایم آئی ٹی کے ایک نئے پیپر میں اس چیلنج کے حل کی جانب اشارہ کیا گیا ہے۔ اس سے ہمیں ایسے مضبوط ڈیپ لرننگ ماڈلز بنانے میں مدد ملے گی جن کا خطرناک طریقوں سے فائدہ اٹھانا بہت زيادہ مشکل ہوگا۔ اس کی اہمیت سمجھنے کے لیے پہلے نقصان دہ مصنوعی ذہانت کے چند بنیادی اصولوں پر نظر ڈالتے ہیں۔

ڈیپ لرننگ کی طاقت کی وجہ ڈیٹا میں پیٹرنز کی نشاندہی کرنی کی صلاحیت ہے۔ اگر آپ کسی نیورل نیٹورک کو ہزاروں جانوروں کی تصویریں دکھائيں گے، وہ جلد ہی سیکھ جائے گا کہ ان میں سے کونسی تصویر کس جانور کی ہيں۔ اس کے بعد وہ ان پیٹرنز کی مدد سے ایسے جانوروں کی شناخت کر پائے گا جو اس نے کبھی دیکھے نہيں ہیں۔

تاہم ڈیپ لرننگ کے ماڈلز زيادہ مضبوط نہيں ہیں۔ تصویر کی پہچان کا نظام اپنے سامنے موجود چیزوں کی گہری سمجھ بوجھ کے بجائے پکسل پیٹرنز پر انحصار کرتا ہے، جس کی وجہ سے ان پیٹرنز میں خلل اندازی پیدا کرکے سسٹم کو دھوکا دینا بہت آسان ہے۔ ایک چھوٹی سی مثال لے لیں۔ کسی ریچھ کی تصویر میں شور متعارف کرنے سے سسٹم سو فیصد اعتماد کے ساتھ آپ کو بتائے گا کہ تصویر ریچھ کی نہيں بلکہ بندر کی ہے۔ متعارف کیا جانے والا شور حملہ آور عنصر ہے۔

پچھلے چند سالوں سے محققین نے کمپیوٹر وژن سسٹمز میں یہ رجحان دیکھا ہے، لیکن وہ اب تک اس کا حل تلاش کرنے میں کامیاب نہيں رہے ہیں۔ مصنوعی ذہانت کی کانفرنس آئی سی ایل آر میں پیش کیے جانے والے ایک پیپر میں یہ سوال اٹھایا گیا تھا کہ کیا ان حملات سے بچنے کا کوئی طریقہ ہے؟ آپ تصویر زمرہ بند کرنے کے سسٹم کو کتنی بھی تصویریں دکھادیں، ایک چھوٹا سا عنصر ضرور ہوگا جس سے سسٹم میں غلطیاں متعارف کرنا ممکن ہوگا۔

تاہم ایم آئی ٹی کے ایک نئے پیپر سے یہ بات سامنے آئی ہے کہ ہمارا حملات کے بارے میں سوچنے کا طریقہ غلط ہے۔ ہمیں زیادہ ڈیٹا جمع کرکے سسٹم کو فراہم کرنے کے بجائے سسٹم کی تربیت کا طریقہ تبدیل کرنے کی ضرورت ہے۔

اس پیپر میں حملہ آور مثالوں کی ایک اہم خصوصیت کو اجاگر کیا گیا، جس کے ذریعے معلوم ہوتا ہے کہ وہ اس قدر موثر کیوں ہیں۔ غلط زمرہ بندی کی وجہ بننے والا بے ترتیب شور یا سٹکرز دراصل مخصوص چھوٹے پیٹرنز کا فائدہ اٹھاتے ہیں جنہیں تصویر کی شناخت کرنے والے سسٹم نے مخصوص اشیاء کے ساتھ منسلک کرنا سیکھا ہے۔ اس کا مطلب ہے کہ جب مشین ریچھ کی تصویر کو بندر کے زمرے میں شامل کرتی ہے تو اسے دراصل ایسے کئی چھوٹے پکسلز نظر آرہے ہوتے ہیں، جو انسانوں کو نظر نہيں آتے، لیکن مشین کو تربیت کے دوران ریچھ کی تصویروں کے بجائے بندر کی تصویر میں نظر آئے تھے۔

محققین نے یہ تھیوری ثابت کرنے کے لیے ایک تجربہ کیا جس میں انہوں نے کتوں کی تصویروں پر مشتمل ایک ڈیٹا سیٹ تیار کیا، جس کی تمام تصاویر کو اس طرح سے تبدیل کیا گيا کہ کوئی بھی امیج کو زمرہ کرنے والی مشین ان کتوں کو بلی تصور کرے۔ اس کے بعد انہوں نے ان تصویروں پر غلط لیبل لگا کر انہیں بلیاں قرار دینے کے بعد ایک نئے نیورل نیٹورک کو تربیت دینا شروع کی۔ تربیت مکمل ہونے کے بعد انہوں نے نیورل نیٹورک کو بلی کی تصویریں دکھائيں۔ یہ مشین ان تمام بلیوں کی درست شناخت کرنے میں کامیاب رہی۔

اس تجربے کے نتائج سے محققین نے یہ اندازہ لگایا کہ ہر ڈيٹا سیٹ میں دو قسم کے تعلقات پائے جاتے ہیں، ڈیٹا کے معنی سے تعلق رکھنے والے پیٹرنز جیسے کہ بلی کی مونچھیں یا ریچھ کے رنگ، اور تربیتی ڈیٹا میں موجود پیٹرنز جنہیں دوسری صورتحال میں استعمال نہيں کیا جاسکتا۔ حملات میں اس دوسری قسم کے تعلقات کا فائدہ اٹھایا جاتا ہے۔

اس سے یہ بات ثابت ہوتی ہے کہ حملوں کا خطرہ کم کرنے کے لیے ماڈلز کی تربیت کا طریقہ تبدیل کرنے کی ضرورت ہے۔ اس وقت ہم نیورل نیٹورکز کو کسی بھی تصویر ميں اشیاء کی شناخت کے لیے اپنی مرضی کے تعلقات منتخب کرنے کی اجازت دیتے ہیں، تاہم اس کے نتیجے میں ان تعلقات پر کنٹرول ختم ہوجاتا ہے اور ہم یہ جاننے سے قاصر رہتے ہیں کہ کیا یہ تصویریں حقیقی ہیں یا نہیں۔ اس کے بجائے اگر ہم اپنے ماڈلز کو صرف حقیقی پیٹرنز یاد رکھنے کی تربیت فراہم کريں، یعنی وہ پیٹرنز جو ان پکسلز کے معنی سے وابستہ ہیں، تو ممکن ہے کہ ہم ایسے ڈیپ لرننگ سسٹمز بنانے میں کامیاب ہوجائيں جن کا غلط فائدہ اٹھانا ناممکن ہو۔

جب محققین نے اس آئيڈیا کو ٹیسٹ کرنے کے لیے اپنے ماڈل کو تربیت فراہم کرنے کے دوران حقیقی تعلقات کا استعمال کیا، تو ماڈل کو لاحق خطرات میں خودبخود کمی ہوگئی۔ اس قسم کے ماڈل کا صرف 50 فیصد بار غلط فائدہ اٹھایا جاسکا، جبکہ حقیقی اور غلط تعلقات پر تربیت حاصل کرنے والے ماڈل کا 95 فیصد بار غلط فائدہ اٹھایا جاسکتا ہے۔

اس کا مطلب یہ ہے کہ حملات سے بچنا ممکن ہے، لیکن ہمیں انہيں مکمل طور پر ختم کرنے کے لیے مزید تحقیق کی ضرورت ہے۔

تحریر: کیرن ہاؤ (Karen Hao)

Read in English

Authors

*

Top