Global Editions

مصنوعی ذہانت کے سسٹمز کے نسلی تعصب کو کس طرح ختم کیا جاسکتا ہے؟

نام: انیولووا ڈیبرا راجی (Inioluwa Deborah Raji)

عمر: 24 سال

ادارہ: اے آئی ناؤ انسٹی ٹیوٹ (AI Now Institute)

جائے پیدائش: نائیجیریا

انیولووا ڈیبرا راجی بتاتی ہیں کہ انہوں نے مصنوعی ذہانت پر ریسرچ اس وقت شروع  کی جب انہيں ان سسٹمز کی ایک بہت بڑی خامی کا احساس ہوا۔

اپنے کالج کے زمانے میں کلیریفے (Clarifai) نامی کمپنی میں انٹرنشپ کے دوران راجی فحاش تصاویر کی نشاندہی کرنے والے کمپیوٹر وژن کے ایک ماڈل پر کام کررہی تھیں۔ یہ بات بہت جلدی واضح ہوگئی کہ یہ سسٹم ان تصاویر کو ”فحاش“ قرار دے رہا تھا جو سفیدفام افراد پر مشتمل نہیں تھیں۔ اس ماڈل کو دو ذرائع سے ڈیٹا فراہم کیا جارہا تھا: یعنی فحاش مواد سے اور انٹرنیٹ سے حاصل کردہ ”صاف ستھری“ سٹاک تصاویر سے۔ راجی کو جلد ہی احساس ہوگیا کہ فحاش مواد کے مقابلے میں سٹاک تصاویر میں سفید فام افراد کا تناسب زيادہ ہونے کی وجہ سے یہ سسٹم سمجھنے لگا تھا کہ “فحاشی” کا تعلق سانولی رنگت سے ہے۔

راجی نے کلیریفے کو اس مسئلے کے متعلق آگاہ کیا، لیکن انہوں نے اس ماڈل کا استعمال جاری رکھا۔ وہ بتاتی ہیں کہ ”کسی کو صورتحال تبدیل کرنے پر آمادہ کرنا بہت مشکل ثابت ہورہا تھا۔ میں نے جس سے بھی بات کی، اس نے یہی کہا کہ ڈیٹا حاصل کرنا پہلے ہی اتنا مشکل ہے، اس ڈیٹا میں تنوع کہاں سے متعارف کیا جاسکتا ہے؟“

راجی نے اس مسئلے پر تحقیق کرنے کی ٹھانی اور کمپیوٹر وژن کے ڈیٹا سیٹس پر نظر دوڑانا شروع کی۔ انہیں یہ بات معلوم ہوئی کہ لوگوں کی تصاویر پر مشتمل ڈیٹا سیٹس میں سفید فام افراد کا تناسب زيادہ ہونے کی وجہ سے چہرے کی شناخت کے سسٹمز سانولی رنگت رکھنے والے چہروں کے درمیان امتیاز کرنے سے قاصر رہتے تھے۔ پولیس کے محکمے اور قانون نافذ کرنے والے ادارے انہیں سسٹمز کا استعمال کرکے ملزمان کی شناخت کرنے کی کوشش کر رہے تھے۔

راجی کہتی ہیں کہ ”مجھے یہ دیکھ کر بہت بڑا دھچکا لگا۔ اس وقت مشین لرننگ کے متعدد ماڈلز استعمال کیے جارہے ہيں اور ان سے لاکھوں لوگ متاثر ہورہے ہیں۔“

نائجیریا کے شہر پورٹ ہارکورٹ میں پیدا ہونے والی راجی چار سال کی عمر میں اپنے گھر والوں کے ساتھ کینیڈا کے شہر مسی ساگا آگئيں تھی۔ انہيں اپنے آبائی ملک کے متعلق زیادہ یاد نہیں، لیکن یہ ضرور یاد ہے کہ ان کے والدین اپنے بچوں کو ایک بہتر زندگی دینا چاہتے تھے۔ شروع میں انہيں کینیڈا میں بہت مشکلات کا سامنا رہا۔ راجی کے والدین دو سال تک نائیجیریا میں ہی ملازمت کرتے رہے، اور صرف چھٹیوں ہی میں اپنے گھر والوں سے ملنے کینیڈا آیا کرتے تھے۔ راجی نے پانچ سال میں سات مختلف سکول بدلے۔

آخرکار ان کے والدین اوٹاوا منتقل ہوگئے، جس کے بعد ان کی زندگیوں میں تھوڑا استحکام آنا شروع ہوا۔ جب راجی کے کالج میں داخلے کا وقت آیا تو انہيں یقین تھا کہ وہ ڈاکٹری پڑھنے والی ہیں۔ وہ کہتی ہیں کہ ”اگر لڑکیاں سائنس میں اچھی ہوں تو انہيں ڈاکٹر بننے کا ہی مشورہ دیا جاتا ہے۔“ انہيں مک گیل یونیورسٹی کے نیوروسائنس کے پروگرام میں داخلہ بھی مل گیا۔ لیکن وہ ایک دن اپنے والد کے کہنے پر یونیورسٹی آف ٹورنٹو گئيں، اور وہاں کے ایک پروفیسر نے انہيں انجنیئرنگ پڑھنے پر آمادہ کرلیا۔ راجی بتاتی ہیں کہ ”انہيں نے مجھے کہا کہ فزکس اور ریاضی پڑھ کر دنیا بدلنے کی خواہش رکھنے والوں کے لیے انجنیئرنگ کے پروگرام سے بہتر اور کچھ بھی نہيں ہے۔ میں نے راتوں رات اپنا ارادہ بدل لیا اور ان کی بات مان لی۔“

یونیورسٹی میں راجی نے کوڈنگ کی کلاسز لینا شروع کیں اور ان کی ہیکاتھانز میں دلچسپی پیدا ہونا شروع ہوئی۔ انہيں مسائل حل کرنے یا سسٹمز تبدیل کرنے کے لیے سافٹ ویئر بنانے میں مزہ آنے لگا اور ان کا بس نہيں چل رہا تھا کہ وہ جلد از جلد کسی سٹارٹ اپ کمپنی میں ملازمت اختیار کرلیں۔ انہيں جلد ہی کلیریفے میں انٹرنشپ مل گئی۔

کلیریفے کے سسٹم میں نسلی تعصب کے عنصر کے انکشاف کے بعد، راجی نے یہاں کام کرنے والوں کا تعاون حاصل کرنے کی بہت کوشش کی، لیکن کسی نہ ان کا ساتھ نہيں دیا۔ آخرکار انہوں نے اس مسئلے پر کام کرنے والی واحد ریسرچر سے بات کرنے کا فیصلہ کیا۔

ایم آئی ٹی کی ریسرچر جوائے بولام وینی (Joy Buolamwini) بھی راجی کی طرح سیاہ فام ہیں۔ 2016ء میں انہوں نے ایک ٹیڈ ایکس ٹاک میں بتایا تھا کہ مارکیٹ میں دستیاب چہرے کی شناخت کے زيادہ تر سسٹمز صرف اسی صورت میں ان کا چہرہ پہچانتے تھے اگر وہ سفید رنگ کا ماسک پہنتی تھیں۔ راجی کے لیے بولام وینی سے بہتر کوئی مثال ہو ہی نہيں سکتی تھی۔ انہوں نے اپنا تمام کوڈ اکٹھا کرکے بولام وینی کو بذریعہ ای میل بھیج دیا۔ جلد ہی دونوں کے درمیان رابطہ قائم ہوگیا۔

اس وقت بولام وینی اپنے ماسٹرز کے مقالے کے لیے جینڈر شیڈز (Gender Shades) نامی پراجیکٹ پر کام کررہی تھیں، جس کا مقصد مارکیٹ میں دستیاب چہرے کی شناخت کے سسٹمز میں شامل جنسی اور نسلی تعاصب کی پیمائش کرنے والے ڈیٹا سیٹ کی تیاری تھا۔ ان سسٹمز فروخت کرنے والی کمپنیوں میں آڈیٹنگ سسٹمز تو موجود تھے، لیکن ان کے پاس سیاہ فام افراد کی تصاویر پر مشتمل ڈیٹا موجود نہيں تھا، جس سے سسٹمز کی تربیت متاثر ہورہی تھی۔ یہی وجہ تھی کہ ان سسٹمز کے آڈٹس میں ان کی درستی 95 فیصد سے زائد ہوتی تھی، لیکن جب انہيں حقیقی دنیا میں استعمال کیا جاتا تو اقلیتوں کے حوالے سے ان کی درستی کم ہو کر صرف 60 فیصد رہ جاتی تھی۔ اس کے برعکس بولام وینی کے ڈیٹا سیٹ میں مختلف رنگت رکھنے والے افراد کی زيادہ متوازن تصاویر موجود تھیں، جس کی وجہ سے رنگت اور جنس کے حوالے سے کسی بھی سسٹم کی درستی کی پیمائش کرنا بہت آسان تھا۔

راجی نے بولام وینی کے ساتھ کام کرنا شروع کیا، اور ڈيٹا سیٹ جمع کرکے آڈٹس چلائے۔ تین کمپنیوں کے سسٹمز کی ٹیسٹنگ کی گئی تھی، یعنی مائیکروسافٹ، آئی بی ایم، اور میگ وی (Megvii) (جن کے سافٹ ویئر کا نام ++Face ہے)۔ ان دونوں ریسرچرز کو یہ دیکھ کر بہت حیرت ہوئی کہ ان میں سے سب سے خراب کارکردگی کا مظاہرہ کرنے والی کمپنی کی سانولی رنگت رکھنے والی خواتین اور سفید فام مردوں کی چہروں کی شناخت کی درستی میں 34.4 فیصد کا فرق سامنے آیا۔ تاہم دوسری دونوں کمپنیوں کی کارکردگی بھی کچھ خاص بہتر نہيں تھی۔ ان نتائج کے اخباروں میں شائع ہوئے کے بعد، یہ کمپنیاں اپنے سسٹمز کے تعصب کو کم کرنے کی کوششیں کرنے پر مجبور ہونا شروع ہوئيں۔

جینڈر شیڈز کی بدولت راجی کو معلوم ہوا کہ آڈٹنگ کی مدد سے کمپنیوں کو اپنے طریقہ کار تبدیل کرنے پر مجبور کیا جاسکتا ہے۔ لِہٰذا 2018ء میں انہوں نے کلیریفے چھوڑ کر بولام وینی کے ساتھ ایم آئی ٹی میڈیا لیب میں کام کرنا شروع کردیا۔ اس بار راجی نے ریسرچ کی سربراہی کرنے کا ارادہ کیا۔ انہوں نے ماضی میں جن تین کمپنیوں کا آڈٹ کیا تھا، ان کے ساتھ انٹرویوز کے نتیجے میں یہ بات سامنے آئی کہ جینڈر شیڈز کے باعث ان کے سسٹمز کی تربیت میں بہت مثبت تبدیلیاں متعارف کی گئيں تھیں۔ اس کے بعد راجی نے ان تینوں کمپنیوں کا دوبارہ آڈٹ کرنے کے علاوہ مزید دو کمپنیوں، یعنی ایمزان اور کائروس (Kairos) کا بھی آڈٹ کیا۔ پچھلی تین کمپنیوں کے نتائج میں بہت زيادہ بہتری سامنے آئی، لیکن ایمزان اور کائروس کے سسٹمز میں بہت تعصب شامل تھا۔

ان نتائج کے باعث مصنوعی ذہانت سے وابستہ تحقیق میں انقلاب آیا ہے۔ اسی سال امریکی نیشنل انسٹی ٹیوٹ آف سٹینڈرز اینڈ ٹیکنالوجی (National Institute of Standards and Technology) نے چہرے کی شناخت کے الگارتھمز کے سالانہ آڈٹ میں ترمیم کرکے ان میں نسلی تعصب کی ٹیسٹنگ کا عنصر شامل کیا۔

راجی نے اس کے بعد الگارتھمز کی جوابدہی کے معیار قائم کرنے والے مزید کئی پراجیکٹس پر کام کیا ہے۔ میڈیا لیب کے بعد انہوں نے گوگل کو اپنے مصنوعی ذہانت کے سسٹمز میں شفافیت متعارف کرنے کے حوالے سے معاونت فراہم کی۔ روایتی سافٹ ویئر ڈیولپرز کام کرنے سے پہلے ہر ایک فیصلے کے متعلق تحریری دستاویزات تیار کرتے ہیں، لیکن ابتدائی مشین لرننگ انجنیئرز ایسا نہيں کرتے۔ اسی لیے اکثر ان کے سسٹمز غلطیوں اور تعصب کا شکار رہتے تھے اور بعد میں ان کی اصلاح کرنا بہت مشکل ثابت ہوتا تھا۔

راجی نے کلیریفے کے تجربے سے فائدہ اٹھاتے ہوئے سینیئر ریسرچ سائنٹسٹ مارگریٹ مچل (Margaret Mitchell) کے ساتھ ان مشین لرننگ کے انجنیئرز کے لیے اس تحریری ریکارڈ کا ایک فریم ورک تیار کیا۔ 2019ء میں گوگل نے اپنے کلائنٹس کے لیے گوگل کلاؤڈ (Google Cloud) میں اس کا استعمال شروع کردیا۔ اس کے بعد سے OpenAI اور نیچرل لینگوئیج کی پراسیسنگ کرنے والی کمپنی ہگنگ فیس (Hugging Face) نے بھی اس سے ملتے جلتے فریم ورکس متعارف کیے۔

راجی نے میڈيا لیب میں مکمل کردہ بیرونی آڈٹنگ کے کام کو آگے بڑھانے کے لیے گوگل میں اندرونی آڈٹنگ کے ایک پراجیکٹ پر بھی کام کرنا شروع کردیا۔ اس کا مقصد مصنوعی ذہانت کے سسٹمز کی تخلیق کے ہر مرحلے میں چیکنگ متعارف کرنا تھا، تاکہ مسائل سنگین ہونے سے پہلے ہی ان کا حل ممکن ہوسکے۔ اس کے علاوہ، ان کے فریم ورک میں  سینیئر مینیجمنٹ کی حمایت حاصل کرنے کے متعلق مشورے بھی شامل تھے، تاکہ آڈٹ میں فیل ہونے کی صورت میں سسٹمز کو مارکیٹ میں لانچ کرنا کسی بھی صورت ممکن نہ ہو۔

راجی ان تمام پراجیکٹس کے ذریعے مصنوعی ذہانت کے شعبے میں اخلاقیات کے عنصر کی شمولیت کو زيادہ آسان بنانا چاہتی ہيں۔ وہ کہتی ہیں کہ ”ہم بحیثیت ایک کمیونٹی چند اقدار کی بات کرتے ہيں اور میں ان اقدار کو ٹھوس اقدام، وسائل، اور فریم ورکس کی شکل دینا چاہتی ہوں۔“

ان کے کام میں کئی رکاوٹیں حائل رہی ہيں۔ گوگل میں کام کرنے کے دوران انہيں معلوم ہوا کہ سسٹمز بدلنے کے لیے کتنا وقت اور کتنی محنت لگتی ہے۔ راجی کو خدشہ ہے کہ مصنوعی ذہانت کے تعصب کے خاتمے کے لیے تیار کردہ سسٹمز کے مہنگے ثابت ہونے کے باعث کئی کمپنیاں اسے متعارف نہيں کریں گی۔ یہی وجہ ہے کہ انہوں نے اب کاروباری دنیا کو پیچھے چھوڑ کر اے آئی ناؤ (AI Now) نامی غیرمنافع بخش ریسرچ ادارے میں کام کرنا شروع کردیا ہے۔ راجی کا کہنا ہے کہ کمپنیوں کو اپنے فیصلوں کے لیے جوابدہ ٹھہرانے کے حوالے سے اندرونی آڈٹنگ سے زيادہ بیرونی آڈٹنگ معاون ثابت ہوسکتی ہے۔

راجی نے امید کا دامن نہيں چھوڑا ہے۔ ان کا خیال ہے کہ مصنوعی ذہانت کے ریسرچرز پہلے سے کہیں زيادہ اخلاقیات اور ذمہ داری سے کام لینا چاہتے ہیں۔ وہ کہتی ہیں کہ ”اس ٹیکنالوجی سے بہت کچھ بدلا جاسکتا ہے۔ میں چاہتی ہوں کہ ہم یہ سسٹمز بنانے سے پہلے غور و فکر سے کام لیں کیونکہ یہ بہت اہم ہے اور اس سے لوگوں کی زندگیاں متاثر ہوسکتی ہیں۔“

تحریر: کیرن ہاؤ (Karen Hao)

تصویر: ڈیوڈ ونٹینر (David Vintiner)

Read in English

Authors

*

Top