ڊيپ مائنڊ ان خطري تي ويجهي نظر وٺندو آهي جيڪو اي جي آئي دنيا کي پيش ڪري سگهي ٿو
تي اپڊيٽ ڪيو ويو: 56-0-0 0:0:0

جيئن ته اي آئي جنون انٽرنيٽ کي صاف ڪري ٿو، ٽيڪنالاجي ۽ ڪاروباري اڳواڻاڳ ۾ ئي ايندڙ مرحلي جي ڳولا ڪري رهيا آهن. اي جي آءِ (آرٽيفيشل جنرل انٽيليجنس) انسان جهڙي ذهانت ۽ صلاحيتن واريون مشينون آهن. جيڪڏهن اڄ جي اي آئي سسٽم اي جي آئي طرف وڌي رهيا آهن، اسان کي يقيني بڻائڻ لاء نئين طريقن جي ضرورت آهي ته اهڙيون مشينون انساني مفادن جي مقابلي ۾ نه هلن.

بدقسمتي سان، اسان وٽ آئزڪ آسيموف جي روبوٽس جي ٽن قانونن وانگر هڪ خوبصورت حل نه آهي. ڊيپ مائنڊ جي محققن هن مسئلي تي ڪم ڪري رهيا آهن ۽ هڪ نئون ٽيڪنيڪل پيپر (پي ڊي ايف) شايع ڪيو آهي ته اي جي آئي کي محفوظ طور تي ڪيئن ترقي ڪئي وڃي، جنهن کي توهان ڪنهن به وقت ڊائون لوڊ ۽ ڏسي سگهو ٿا.

رپورٽ حوالن کان گهڻو اڳ 2030 صفحا آهي ۽ تمام معلوماتي آهي. جڏهن ته اي آئي فيلڊ ۾ ڪجهه سوچيندا آهن ته اي جي آئي صرف هڪ پري خواب آهي، ڊيپ مائنڊ پيپر جي ليکڪن جو اندازو آهي ته اهو 0 سالن ۾ سچ ٿي سگهي ٿو. هن نظريي جي بنياد تي، اهي انساني مصنوعی ذهانت جي خطرن کي سمجهڻ لاء پابند آهن، ۽ اعتراف ڪن ٿا ته اهو "شديد نقصان" جو سبب بڻجي سگهي ٿو.

اي جي آء کان انسانيت کي سڀ امڪاني خطرا

مطالعي ۾ اي جي آء جي چار ممڪن خطرن جي سڃاڻپ ڪئي وئي ۽ ان هيٺ گهٽتائي لاء سفارشون ڪيون ويون. ڊيپ مائنڊ ٽيم، ڪمپني جي گڏيل باني، شين ليگ جي اڳواڻي ۾، اي جي آئي جي منفي اثرات کي بدسلوڪي، ڊسگريشن، غلط قدمن ۽ ساختي خطرن ۾ درجه بندي ڪئي.

پهريون ممڪن مسئلو غلط استعمال آهي، جيڪو موجوده AI خطري جي فطرت ۾ ساڳيو آهي. پر ڇاڪاڻ ته اي جي آء پاڻ وڌيڪ طاقتور آهي، اهو پڻ وڌيڪ نقصان پهچائي سگهي ٿو. مثال طور، خراب اداڪار جيڪي اي جي آئي تائين رسائي حاصل ڪري سگهن ٿا، سسٽم کي خراب ڪرڻ لاء غلط استعمال ڪري سگهن ٿا، سسٽم کي صفر ڏينهن جي ڪمزورين جي سڃاڻپ ۽ استحصال ڪرڻ جي ضرورت آهي، يا ڪسٽم وائرس ٺاهيندا آهن جيڪي بايوويپن جي طور تي استعمال ڪري سگهجن ٿا.

اي جي آئي جي ترقي ڪندڙ ڪمپنين کي وڏي پيماني تي تحقيق ڪرڻ گهرجي ۽ ڊپ مائنڊ جي مطابق، مضبوط پوسٽ ٽريننگ حفاظتي پروٽوڪول ترقي ڪرڻ گهرجي. لازمي طور تي، اهو اسان جي موجوده AI دفاع جي اپگريڊ آهي. اهي پڻ خطرناڪ صلاحيتن کي مڪمل طور تي دٻائڻ جو طريقو اختيار ڪرڻ جو مشورو ڏين ٿا، ڪڏهن ڪڏهن "وساري وڃڻ" جي نالي سان سڏيو ويندو آهي، پر اهو واضح ناهي ته ڇا اهو ماڊل کي سخت حد تائين محدود ڪرڻ کان سواء ممڪن آهي.

اختلاف اڄ جي پيداوار اي آئي ۾ ٿوري پريشاني جو سبب آهي. هن قسم جي اي جي آئي خطري کي ڀڄڻ واري مشين جي حيثيت سان تصور ڪيو ويو آهي جيڪو پنهنجي ڊزائنر جي پابندين کان بچي ٿو. ٽرمينيٽر جي باري ۾ سوچيو؟

هن کان بچڻ لاء، ڊيپ مائنڊ سفارش ڪري ٿو ته ڊولپرز ٽيڪنالاجي استعمال ڪن ٿا جهڙوڪ وڌايل نگراني، جتي AI جون ٻه ڪاپيون هڪ مضبوط سسٽم ٺاهڻ لاء هڪ ٻئي جي پيداوار کي چيڪ ڪن ٿيون جيڪي ڪنٽرول کان ٻاهر نڪرڻ جو امڪان نه آهي. جيڪڏهن اهو ناڪام ٿئي ٿو، ڊيپ مائنڊ سخت تڪليف جي جانچ ۽ نگراني جي سفارش ڪري ٿو ته ڇا AI اسان سان غداري ڪرڻ جي ڪا به نشاني ڏيکاري ٿو. سخت سيڪيورٽي ۽ سڌو سنئون انساني نگراني سان هڪ ورچوئل سينڊ باڪس ۾ اي جي آئي رکڻ سان مسئلن کي گهٽائڻ ۾ مدد ڪري سگھي ٿو جيڪي ڊسگريشن سان ايندا آهن. مختصر طور تي، پڪ ڪريو ته هڪ "آف" سوئچ آهي.

جيڪڏهن AI کي خبر ناهي ته ان جي پيداوار نقصانڪار آهي، ۽ انساني ليکڪ کي ائين ڪرڻ جو ارادو نه آهي، اهو هڪ غلطي آهي. اهو موجوده اي آئي سسٽم ۾ هڪ عام واقعو آهي - ياد رکو جڏهن گوگل پيزا تي گلو لاڳو ڪرڻ لاء چيو؟ پر اي جي آء لاء، هن "گلو" سان معاملو ڪرڻ لاء وڌيڪ ڏکيو ٿي سگهي ٿو. ڊيپ مائنڊ نوٽ ڪري ٿو ته فوج "مقابلي جي دٻاء" جي ڪري اي جي آئي کي مقرر ڪري سگهي ٿي، پر انهن سسٽم کي اڄ جي اي آئي جي ڀيٽ ۾ وڌيڪ نفيس صلاحيتن سان نوازيو ويندو، اهي سنجيده غلطيون ڪري سگهن ٿا.

ڪاغذ ۾ غلطي کي گهٽائڻ لاء سٺو حل نه آهي. اهو اي جي آئي کي پهرين جاء تي تمام طاقتور نه ٿيڻ ڏيڻ لاء هيٺ اچي ٿو. ڊيپ مائنڊ اي جي آئي جي اجازتن تي سست تعیناتی ۽ پابندين جو مطالبو ڪري ٿو. مطالعي ۾ اهو پڻ سفارش ڪئي وئي آهي ته اي جي آئي جي حڪمن کي انهن جي حفاظت کي يقيني بڻائڻ لاء عملدرآمد کان اڳ "بچاء" سسٽم ذريعي پاس ڪيو وڃي.

آخرڪار، ساختي خطرو آهي، جيڪو ڊيپ مائنڊ اسان جي اڳ ۾ ئي پيچيده انساني وجود جي حالت تي ملٽي ايجنٽ سسٽم جي غير ارادي پر حقيقي اثر جي طور تي بيان ڪري ٿو. مثال طور، اي جي آئي شايد غلط معلومات ايتري قدر قابل اعتماد ٺاهي سگھي ٿو ته اسان کي هاڻي خبر ناهي ته ڪير يا ڇا ڀروسو ڪرڻ گهرجي. ڪاغذ اهو به دليل ڏئي ٿو ته اي جي آئي آہستہ آہسته اقتصادي ۽ سياسي نظام تي ڪنٽرول گڏ ڪري سگهي ٿو، جنهن ۾ سخت ٽيرف پروگرام جي ترقي جي ذريعي شامل آهي. وري هڪ ڏينهن، اسين مٿي ڏسون ٿا ۽ ڏسون ٿا ته مشين هر شيء تي ڪنٽرول ۾ نه آهي. هن قسم جي خطري کي روڪڻ به سڀ کان ڏکيو آهي ڇاڪاڻ ته اهو مستقبل ۾ ماڻهو، انفراسٹرڪچر ۽ ادارا ڪيئن ڪم ڪندو ان تي منحصر آهي.

پنجن سالن ۾ اي جي آء؟

ڪو به نه ڄاڻي ٿو ته مشينن جي باري ۾ سوچڻ واقعي صرف چند سالن ۾ ممڪن ٿي ندو، پر ڪيترن ئي ٽيڪنالاجي اڳواڻن کي ائين چوڻ لاء ڪافي اعتماد آهي. اڳڪٿي ڪرڻ ۾ ڏکيائي جو حصو جڏهن اي جي آئي اڀرندو اهو آهي ته اسان اڃا تائين اندازو لڳائي رهيا آهيون ته ڪيئن انساني ذهانت مشينن ۾ پاڻ کي ظاهر ڪندو. جيڪي ماڻهو گذريل ڪجهه سالن ۾ پيداوار اي آئي سسٽم استعمال ڪيا آهن انهن کي حقيقي، ٹھوس ترقي ڏٺو ويو آهي، پر ڇا اهو رستو حقيقي انسان جهڙي صلاحيتن ڏانهن وڌندو آهي؟

اسان تازو ٽلسي دوشي سان ڳالهايو، گوگل جي جيميني ۾ پراڊڪٽ مئنيجمينٽ جي ڊائريڪٽر، اي جي آئي سميت اي آئي موضوعن جي هڪ حد جي باري ۾. "مختلف ماڻهن کي اي جي آء جي مختلف وضاحتون آهن، تنهنڪري توهان ڪنهن سان ڳالهائي رهيا آهيو، ڪيترو ويجهو يا اي جي آء کان ڪيترو پري آهيون، هڪ مختلف گفتگو آهي،" دوشي چيو. "آئون چوان ٿو ته وڏن ٻولين جي ماڊل، جيميني، ۽ ماڊل جيڪي هوشيار تربيت ڏين ٿا اهي انتهائي ذهين ماڊل ڏانهن وڌي رهيا آهن. اهو پاڻ ۾ زبردست قيمت آهي. "

هي ڪاغذ اي جي آء جي سيڪيورٽي تي آخري لفظ نه آهي - ڊيپ مائنڊ نوٽ ڪري ٿو ته اهو صرف "هڪ اهم گفتگو لاء شروعاتي نقطو" آهي. جيڪڏهن ٽيم صحيح آهي ته اي جي آء صرف پنج سالن ۾ دنيا کي تبديل ڪرڻ لاء تيار آهي، پوء انهن ڳالهين کي جلد يقيني طور تي ٿيڻ جي ضرورت آهي. جيڪڏهن نه، ته پوء گهڻا ماڻهو ٿورو بيوقوف لڳي سگهن ٿا.