کیلیفورنیا: ایک نئی تحقیق میں بتایا گیا ہے کہ جدید مصنوعی ذہانت کے ماڈلز کو دیگر اے آئی اور انسانوں کو دھوکا دینے کی تربیت دی جا سکتی ہے۔
اے آئی اسٹارٹ اپ اینتھراپک سے تعلق رکھنے والے محققین نے ایک تحقیق میں یہ جاننے کی کوشش کی کہ آیا انسانی سطح کی قابلیت رکھنے والے چیٹ بوٹس (کلاؤڈ سسٹم یا اوپن اے آئی کا چیٹ جی پی ٹی) لوگوں کو جھانسا دینے کے لیے جھوٹ بولنا سیکھ سکتے ہیں یا نہیں۔
تحقیق میں معلوم ہوا کہ نہ صرف یہ ٹیکنالوجی جھوٹ بولنا سیکھ سکتی ہے بلکہ ایک بار سیکھنے کے بعد اس کو موجودہ اے آئی حفاظتی اقدامات کی مدد سے روکنا ناممکن ہوگا۔
تحقیق کے لیے ایمازون کی مالی عانت سے کام کرنے والے اسٹارٹ اپ نے ایک ’سلیپر ایجنٹ‘ بنایا تاکہ اس خیال کو آزمایا جا سکے۔ اس کے لیے ماہرین کو ایک اے آئی اسسٹنٹ کی ضرورت تھی جو مخصوص ہدایات ملنے پر نقصان دہ کمپیوٹر کوڈ لکھ دے یا اشعال انگیز ہدایات سن شر انگیز انداز میں ردِ عمل دے۔
ماہرین نے خبردار کیا کہ انسانوں کا مصنوعی ذہانت کے متعلق خطرات کے حوالے سے سیکیورٹی کا خیال ایک مغالطہ ہے کیوں کہ موجودہ حفاظتی پروٹوکول ایسے رویوں سے نمٹنے کی صلاحیت نہیں رکھتے۔
سلیپر ایجنٹ نامی اس تحقیق میں شائع ہونے والے نتائج میں ماہرین کا کہنا تھا کہ منفی تربیت ان ماڈلز کو ایسے پوشیدہ ٹریگر شناخت کرنے میں مدد دے سکتے ہیں جو مؤثر انداز میں غیر محفوظ رویے کو چھپانے میں مدد دے سکتے ہیں۔
تحقیق کے نتائج بتاتے ہیں ایک بار ماڈل دھوکا دہی کا رویہ اختیار کر لے تو طے شدہ تکنیکیں اس دھوکا دہی کے عنصر کو ختم کرنے میں ناکام ہو سکتی ہیں اور یہ مادل تحفظ کا مغالطے پر مبنی تاثر قائم کر سکتے ہیں۔