Global Editions

الگورتھم میں خرابی کا ذمہ دار قریب ترین انسان کو ٹھہرایا جاتا ہے

اس مہینے کے آغاز میں بلومبرگ نے ایک مضمون شائع کیاجو ایک الگورتھم کی وجہ سے ضائع ہونیوالی سرمایہ کاری کے ایک مقدمہ کے بارے میں تھا۔ ہانگ کانگ کا ایک بڑاٹائیکون خود کار پلیٹ فارم پر انحصار کرنے کے بعد 20 ملین ڈالرز گنوا بیٹھا۔ ٹیکنالوجی پر مقدمہ کرنے کے لئے ایک قانونی فریم ورک کی غیر موجودگی میں اس نے قریبی انسان کو مورد الزام ٹھہرایا جس نےاسے یہ خود کار نظام فروخت کیا تھا۔

یہ خود کار طریقے سے سرمایہ کاری کے ضائع ہونے کا سب سے پہلا کیس تھا لیکن الگورتھم کی ذمہ داری کے حوالے سے پہلا کیس نہیں تھا۔ مارچ2018 میں، ایک خو کار طریقے سے چلنے والی اوبر نےٹیمپل، ایروزونا میںایک پیدل چلنے والے کو مار دیا اور کیس عدالت میں چلا۔ ایک سال بعد، اوبر تمام جرائم سے بری تھا لیکن اس کی بجائے سیفٹی ڈرائیور کو ا نسان کی موت کا ذمہ دار ٹھہرایا گیا۔

ان دونوں کیسوں سے خود کار نظام کے بارے میں مرکزی سوالات اٹھتے ہیں:ایک الگورتھم کی خرابی کا ذمہ دارکس کو ٹھہرایا جائے؟ دوسرا اہم سوال یہ ہے کہ جس پر الزام دیا جاتا ہے وہ مختلف آدمی ہوتا ہے۔

ڈیٹا اینڈ سوسائٹی(Data& Society) میں ایک محقق اور تربیت کے حوالے سے اینتھراپالوجسٹ میڈلین کلیئر ایلش (Madeline Clare Elish)نے پچھلے چند سال دوسرے سوال کا جواب حاصل کرنے کے لئے خرچ کئے۔ ایسا کرنے کے لئے انہوں نے تاریخی کیس سٹڈیز پر نظر ڈالی ہے۔ جدید مصنوعی ذہانت والے نظام طویل عرصہ سے نہیں ہیں، اس لئے ان کو ذمہ دار ٹھہرانے کے سوالات بھی ٹھیک نہیں ہیں۔

اوبر کی خود کار ڈرائیونگ کا حادثہ 2009 میں ایئر فرانس کی پرواز 447 کے حادثے کی طرح کا ہے۔ائیر فرانس والے حادثے سے ذمہ داری فکس کرنے میں مدد ملے گی اور یہ پتا چلے گا کہ ہمیں اب کیا کرنا چاہیے۔ ائیر فرانس والے حادثے میں، فرانس سے برازیل جانیوالا طیارہ اٹلانٹک سمندر میں گر کر تباہ ہو گیا جس سے اس میں سوار 228 افراد ہلاک ہو گئے۔  ہوائی جہاز کے خود کار نظام کو مکمل طور پر " فول پروف" ڈیزائن کیا گیا تھا جو کہ تمام حالات کو سنبھالنے کے قابل تھا ماسوائے رئیر ایج کیسز کے جہاں پائلٹ کو معاملات ہاتھ میں لینے پڑتے ہیں۔ اس حوالے سے، پائلٹ خود کار ڈرائیونگ کاروں کی طرح آج کے حفاظتی ڈرائیوروں کی طرح زیادہ تھے۔ ان پائلٹوں کا زیادہ کام پرواز کی نگرانی کا تھا لیکن انتہائی برے حالات میں انہوں نے معاملات اپنے ہاتھ میں لینے تھے۔

حادثے کی رات کیا ہوا، وہ ایک معروف کہانی ہے۔ پرواز کےڈیڑھ گھنٹہ کے بعدہوائی جہاز کے سپیڈ سینسر نےآئس بننے کی وجہ سے کام کرنا چھوڑ دیا۔ طیارے کے آٹوپائلٹ سسٹم نے کنٹرول واپس پائلٹ کو منتقل کر دیا، کنفیوژن اور معلومات کے تبادلے میں غلطی کی وجہ سے طیارہ رک گیا۔ جبکہ پائلٹوں میں سے ایک نے طیارے کو نیچے کی طرف کمانڈ دی جبکہ دوسرے نے پریشانی کی وجہ سے اس کو اوپر لےجانے کی کوشش کی۔ اس نظام کو ایک پائلٹ کے ذریعے کنٹرول کرنے کے لئے ڈیزائن کیا گیا تھا، تاہم دونوں پائلٹوں کے کمانڈ دینے کی وجہ سے یہ فیڈ بیک دینے میں ناکام تھا اور اسے سمجھ نہیں لگ رہی تھی کہ ہو کیا رہا ہے۔

بالآخر، یہ جہاز ایک غلط زاویہ پر چڑھ گیا اور اس نے فیڈ بیک دینا بند کر دیا۔اس پوائنٹ پر پائلٹوں نے مکمل طور پر اندھی پرواز کی اور طیارہ سمندر میں گر گیا۔

ایک حالیہ پیپر میں، الیش نے اس حادثے کا جائزہ لیا اور عوام کی سمجھ کے لئے ایک اہم پیٹرن کی نشاندہی کی۔ اس واقعہ کی ایک وفاقی انکوائری نے نتیجہ اخذ کیا کہ کمزور نظام کے ڈیزائن اور پائلٹوں کی ناکافی تربیت اس حادثے کا باعث بنی جبکہ عوام نے فوری طور پر پائلٹوں پر الزام لگایا۔ میڈیا میں خاص طور پر یہ بات یقین سے پھیلی کہ جدید آٹو میٹک سسٹم میںغلطی کی کوئی گنجائش نہیں تھی۔

دوسرے کیس سٹڈیز میں،ایلیش نےاسی پیڑن کو سچ پایا؛ایک ہائی آٹومیٹد سسٹم میں انسانوں کا کردار بہت محدود ہے لیکن ناکامی کی صورت میں ان پر بھاری ذمہ داری پڑتی ہے۔ ایلش اس مظہر کو مورل کرمپل زون کہتی ہیں۔ وہ اپنے پیپر میں لکھتی ہیں، "ایک کرمپل زون ایک کار میں انسانی ڈرائیورز کو محفوظ بنانے کے لئے ہوتاہے لیکن کرمپل زون میں ٹیکنالوجیکل سسٹم ذمہ داری قریبی انسانی آ پریٹرپر ڈال کر ٹیکنالوجیکل سسٹم کی سالمیت کی حفاظت کرتا ہے۔ ان کا کہنا ہے کہ انسان الگورتھمز کی وجہ سے ہونیوالے نقصانات کی صورت میں تمام قانونی اور اخلاقی ذمہ داری اپنے سر لیتے ہیں۔

الیش کا کہنا ہے کہ ہمیں یہ سوال پوچھنے کی ضرورت ہے کہ ٹیک کمپنیوں کے ٹیکنالوجی کے تجربات کا ذمہ دار کون ہے۔ سیفٹی ڈرائیورز اور دوسرے آپریٹرز کا زیراستعمال مشینوں کے ڈیزائن پر بہت تھوڑا اثر ہوتا ہے یا اثر ہوتا ہی نہیں۔ تاہم موجودہ ریگولیٹری خلا میں، انسانوں کو اس کی بھاری قیمت ادا کرنی پڑتی ہے۔

ریگولیٹرز کو خیال رکھنا چاہیے کہ کس قسم کا فریم ورک ذمہ داری کو احسن طریقے سے نبھائے گا۔ الیش کا کہنا ہےکہ ریگولیٹرز کوسوسائٹی اورٹیکنالوجیکل سسٹم کے بارے میں محتاط طریقے سے سوچنا چاہیے نہ کہ الگورتھم بلیک باکسز کے بارے میں۔

دوسرے الفاظ میں انہیں سوچنا چاہیے کہ سسٹم کا ڈیزائن کس تناظر میں بنایا گیا ہے اور کیا یہ ناکامی اور کامیابی کی صورت میں انسانی آپریٹر کے ساتھ چلتا ہے۔ مثال کے طور پر ، خود کار ڈرائیونگ کاروں کو اس طرح سے ڈیزائن کیا جانا چاہیے کہ سیفٹی ڈرائیورز کا کردار واضح ہو۔

الیش لکھتی ہیں،کسی بھی آٹومیٹک یاروبوٹک نظام میں احتساب کا نظام نہ صرف واضح ہونا چاہیے بلکہ انسانوں کی قدر اور صلاحیت کے تناظر میں انسانوں اور مشینوں کے کردار کو شفاف ہونا چاہیے۔ "

تحریر: کیرن ہاؤ (Karen Hao)

Read in English

Authors
Top