Global Editions

جعلی خبروں کو روکنامصنوعی ذہانت کے لئے بڑا چیلنج

مشکوک خبروں کے ذرائع کی خود کار طریقے سے نشاندہی ممکن ہونی چاہیے لیکن ہمیں بہت زیادہ ڈیٹا کی ضرورت ہوگی۔

جب فیس بک کے چیف ایگزیکٹو مارک زکر برگ نے کانگریس سے وعدہ کیا تھا کہ مصنوعی ذہانت جعلی خبروں کے مسئلے کو حل کرنے میں مدد دے گی ،تب انہوں نے اس حوالے سے بہت تھوڑا بتایا کہ مصنوعی ذہانت کیسے یہ کام کرے گی۔ ایک نئی تحقیق ہمیں اس چیز کے قریب لائی ہے کہ مصنوعی ذہانت کیسے یہ کام کرے گی۔

ایک وسیع پیمانے پر کیا گیا مطالعہ اس مہینے کے آخر تک ایک کانفرنس میں پیش کیا جائے گا جس میں ایم آئی ٹی ، قطر کمپیوٹنگ ریسرچ انسٹی ٹیوٹ (QCRI) اور بلغاریہ کی صوفیہ یونیورسٹی کے محققین میڈیا ہائوسز کے قابل اعتماد ہونے کے حوالے سے 900متغیرات پر تحقیق کے سب سے بڑےسیٹ پیش کریں گے۔

محققین نے پھر ان متغیر ات کے مختلف مجموعوں کو مشین لرننگ کے ماڈل کی تربیت دی تاکہ وہ یہ جان سکیں کہ کون سے ماڈلز سب سے زیادہ درست نتائج دیتے ہیں۔ بہترین ماڈلوں نے میڈیا ہائوسز کو"کم،" "درمیانے،" یا "اعلی" درجہ بندی پر سب سے زیادہ65 فیصد خبر کی درستگی سے لیبل کیا۔

یہ چیز بڑی کامیابی سے کہیں دور پیچھے ہے۔ لیکن تجربات ہمیں حقائق چیک کرنے کے لئے اہم چیزیں ظاہر کرتے ہیں۔ کیو سی آر آئی(QCRI) میں ایک سینئر سائنسدان اوراس مطالعہ کے ایک محقق پریسلیونوکوف (Preslav Nakov) کہتے ہیں کہ انہیں امید ہے کہ وہ اس طریقے سے جعلی خبروں کے ذرائع خودکار طریقے سےتلاش کر سکتے ہیں۔ لیکن اس کا مطلب یہ نہیں ہوگا کہ یہ آسان ہوگا۔

2016 میںامریکی صدارتی انتخابات کی مہم سے جعلی خبروں کا پتہ لگانے پر تحقیق سے اب تک چار اہم نقطہ نظر سامنے آئے ہیں: انفرادی دعویٰ کی جانچ پڑتال، جعلی مضامین کا پتہ لگانا،ٹرولزکو پکڑنا اور خبر کے مستند ہونے کی پیمائش کرنا۔ نوکوف اور باقی ٹیم نے چوتھے نقطے پر توجہ مرکوز کرنے کا انتخاب کیا کیونکہ وہ اس سے غلط معلومات کی ابتدا ہی سے قریب ہو جاتے ہیں۔

پچھلے مطالعہ جات نے خبر کے ذرائع کو نمایاں کرنے کی کوشش کی اور یہ جاننے کی کوشش کی کہ حقائق کی جانچ پڑتال کرنے کے بعد کتنے دعویٰ ملتے تھے اورکتنوں میںتنازع پایا گیا۔ اس میں مواد کے تجزیے شامل ہیں، جیسے عنوانات کی سرخیاں اور مضامین میں مختلف الفاظ ؛ یو آر ایل ڈھانچہ اورویب سائٹ ٹریفک ؛ اورمیڈیا آئوٹ لٹ کا اثر و رسوخ جیسا کہ اس کی سوشل میڈیا مصروفیت اور وکی پیڈیا کے صفحات اگر کوئی ہیں تو۔متغیرات کو منتخب کرنے کے لئے محققین پچھلی تحقیقات پر بھی انحصار کرتے ہیں۔ تاہم یہ میکانزم انسانوں کی طرف سے حقیقت کی جانچ پڑتال پر انحصار کرتی ہے اورمیڈیا آئوٹ لٹ کی تاریخ کی درجہ بندی کرتی ہے ناکہ صرف موجودہ حقائق کا فوری طور۔ نوکوف کہتے ہیں کہ جب تک تازہ ترین دعوے دستی طور پرچیک کئے گئے ہیں، "یہ بہت دیر ہو چکی ہے۔"

حقیقی وقت میں جعلی خبر کے ذرائع کو تلاش کرنے کے لئے نوکوف اور ان کے ساتھیوں نے اپنے نظام کو متغیرات استعمال کرتے ہوئے تربیت دی ہے جو انسانی فیکٹ چیکنگ کے نظام سے آزادانہ طور پر مرتب کیے گئے ہیں۔ اس میں مواد کے تجزیے شامل ہیں، جیسے عنوانات کی سر خیاں اور مضامین میں مختلف لفظ ؛ یو آر ایل ڈھانچہ اور ویب سائٹ ٹریفک ؛ اورمیڈیا آئوٹ لٹ کا اثر و رسوخ جیسا کہ اس کی سوشل میڈیا مصروفیت اور وکی پیڈیا کے صفحات اگر کوئی ہیں تو۔متغیرات کو منتخب کرنے کے لئے محققین پچھلی تحقیقات پر بھی انحصار کرتے ہیں۔

متغیرات کے مختلف مجموعوں کی جانچ کر کے محققین ایک نیوز کے قابل اعتماد ہونے کے لئے بہترین پیشن گوئی کرنے والےنظام کی شناخت کرنے میں کامیاب ہو گئے ہیں۔ چاہے ایک میڈیا آئوٹ لٹ کا وکی پیڈیا پر صفحہ تھالیکن مثال کے طور پر اس کے برعکس اس کی کوئی ٹریفک نہیں تھی۔اس ساری پریکٹس سے محققین نے اضافی متغیرات کا تعین کیا ہے جو مستقبل میں تلاش کیے جا سکتے ہیں۔لیکن ایک اور رکاوٹ ہے: ڈیٹا کی تربیت میں کمی جس کو نوکوف بنیادی سچائی کہتے ہیں۔

زیادہ تر مشین لرننگ کے کاموں کے لئے ڈیٹا ٹریننگ کی کافی ضرورت ہوتی ہے۔ اگر آپ ایسا نظام بنانا چاہتے ہیں جو کھیلوں کے بارے میں مضامین کا پتہ لگاتے ہیں تو آپ آسانی سے مضامین کو اس موضوع سے متعلقہ یاغیر متعلقہ طور پر لیبل کرسکتے ہیں۔ آپ اس ڈیٹا کو ایک مشین میں فیڈ کرتے ہیں تاکہ یہ سپورٹس آرٹیکل کی خصوصیات سیکھ لیں۔

لیکن میڈیا ہائوسز کواعلیٰ یا کم حقیقت کے ساتھ لیبل کرنازیا دہ حساس ہے۔ یہ کام پیشہ ور صحافیوں کو کرنا چاہیے جوسخت طریقوں کو فالو کرتے ہیں اور یہ ایک وقت لینےوالا عمل ہے۔ نتیجے کے طور پر ڈیٹا کی ٹریننگ ایک مشکل کام ہے جس کی وجہ سے جزوی طور مطالعہ کے ماڈل کی درستگی بہت کم ہے۔نوکوف کہتے ہیں، "درستگی میں اضافہ کرنے کا سب سے واضح طریقہ یہ ہے کہ زیادڈیٹا کی ٹریننگ کی جائے۔"

فی الحال، تحقیق کے لئے بنیادی سچائی فرام کرنے والی تنظیم میڈیا بائس فیکٹ چیک(Media Bias Fact Check) نے مشین لرننگ کے لئے 25,00میڈیا ہائوسز کا جائزہ لیا ہے۔ لیکن نوکوف کہتے ہیںکہ تنظیم کا ڈیٹا بیس تیزی سے بڑھ رہا ہے۔ تربیت کے لئےمزید ڈیٹا حاصل کرنے کے علاوہ، محققین اپنے ماڈل کی کارکردگی میں اضافے کے لئے زیادہ متغیرات بڑھانےکے خواہاں ہیں، جن میں سے کچھ ویب سائٹ کے سٹرکچر کی وضاحت کرتے ہیں، چاہے اس پر کنٹیکٹ معلومات ہوں اور اس پر مواد کو چھاپنے یا ڈیلیٹ کرنے کا پیٹرن ہو۔

وہ خبروں کے لئے ایک مجموعی پلیٹ فارم بنانے کےابتدائی مراحل میں بھی ہیں جو قارئین کو ہر کہانی اور اس کے ذریعہ کے قابل اعتماد ہونے کے بارے میں بتاتے ہیں۔بہت سارا کام کرنے کی ضرورت ہے لیکن اس کے باوجود نوکوف کا خیال ہے کہ اس طرح کی ٹیکنالوجی سے جعلی نیوز کی وبا کو حل کرنے میں مدد مل سکتی ہے اگر فیس بک اور ٹویٹر جیسے پلیٹ فارمز نے کوششیں تیز کی ہیں۔اپنے سکائپ پیغام میں انہوں نے لکھا ،"یہ کوشش ایسے ہی ہے جیسا کہ سپیم سے لڑنا۔"ہم مکمل طور پر کبھی بھی جعلی خبروں کو روک نہیں سکتے لیکن ہم انہیں کنٹرول میں رکھ سکتے ہیں۔"

تحریر: کیرن ہاؤ(karen Hao)

Read in English

Authors
Top