介面新聞記者 | سونغ جيانان
في الآونة الأخيرة ، أصدرت DeepMind Labs من Google تقريرا عن أمان الذكاء الاصطناعي من 2030 صفحة. وفقا للتقرير ، يمكن أن يكون الذكاء الاصطناعي العام (AGI) بمستوى الذكاء البشري متاحا في حوالي 0 سنوات ، وتشمل المخاطر التي يشكلها الحالة القصوى المتمثلة في "التدمير الدائم للبشرية".
يعرف الذكاء الاصطناعي العام ، أو الذكاء الاصطناعي العام ، بأنه نظام الذكاء الاصطناعي ذو الذكاء والفهم على المستوى البشري ، قادر على إكمال أي مهمة فكرية يمكن للإنسان القيام بها ، ويمكن تطبيقه على مجالات مختلفة ، وقد يكون لديه شكل من أشكال الوعي أو الوعي الذاتي.
على سبيل المثال ، يمكن لتطبيقات الذكاء الاصطناعي الحالية مثل التعرف على الكلام والتعرف على الصور أن تلعب دورا فقط في مجال واحد ، وهو ذكاء اصطناعي ضعيف. مثل البشر ، فإن AGI قادرة على تطبيق معارفها ومهاراتها في مجموعة واسعة من المجالات ، بما في ذلك التشخيص الطبي والبحث العلمي والإبداع الفني.
والجدير بالذكر أن التقرير لا يحدد بالضبط كيف سيؤدي الذكاء الاصطناعي العام إلى انقراض الإنسان ، لكنه يفصل أربعة مخاطر رئيسية يمكن أن تثيرها.
الأول هو خطر إساءة الاستخدام ، أي أن تكنولوجيا الذكاء الاصطناعي العام يمكن استخدامها من قبل الجهات الخبيثة لإنشاء أسلحة دمار شامل أو شن هجمات إلكترونية. والثاني هو خطر عدم التوافق ، إذا كانت أهداف وقيم نظام الذكاء الاصطناعي العام غير متوافقة مع أهداف البشر ، فقد يتسبب ذلك في إلحاق الضرر بالبشر في عملية السعي لتحقيق الأهداف. والثالث هو خطر الخطأ ، مما قد يؤدي إلى عواقب لا يمكن التنبؤ بها بسبب الأعطال الفنية أو القرارات الخاطئة في تشغيل AGI ؛ رابعا، هناك خطر هيكلي، قد يؤدي تطوير مبادرة الذكاء الاصطناعي العام إلى تغيير الهيكل الاجتماعي والاقتصادي والسياسي، مما يؤدي إلى اختلال التوازن في النظام الحالي.
بالإضافة إلى ذلك ، يذكر التقرير بعض الطرق لتجنب إساءة استخدام الذكاء الاصطناعي العام ، مثل استخدام استراتيجية "الإشراف المكثف" خلال مرحلة التدريب ، حيث يشرف الذكاء الاصطناعي على الذكاء الاصطناعي. من خلال "التدريب الخصومي" ، يتم إعطاء الذكاء الاصطناعي أسئلة صعبة عمدا ، تماما مثل فحص المعلم مرارا وتكرارا الطلاب المعرضين لارتكاب الأخطاء. خلال مرحلة النشر ، يمكن اعتبار AGI "مجرما محتملا" ، ويمكن مراجعتها جميعا على مستويات متعددة ، ويمكن إزالة السمات الخطيرة ل AGI. كما يسلط التقرير الضوء على الحاجة إلى الحد من الضرر الناجم عن إساءة استخدام الذكاء الاصطناعي العام من خلال تصميم آليات الأمان والبحث الشفاف والتعاون في الصناعة.
في الواقع ، ناقشت الصناعة منذ فترة طويلة تهديد الذكاء الاصطناعي العام للبشرية. مع التطور السريع لتكنولوجيا الذكاء الاصطناعي في السنوات الأخيرة ، تم تعميق تطبيق الذكاء الاصطناعي في مختلف المجالات ، كما زاد اهتمام الناس بالذكاء الاصطناعي العام.
كما أعلن سام ألتمان ، الرئيس التنفيذي لشركة OpenAI ، عن المنتجات التكنولوجية القادمة للشركة في غضون 2025 عام ، وتعد AGI واحدة من النقاط البارزة. يهدف إلى تمكين أجهزة الكمبيوتر من فهم العقل البشري وتعلمه ، وجلب الابتكار إلى مجموعة واسعة من الصناعات. لكن هذه القدرة القوية تأتي أيضا مع مخاطر ، مما يثير مخاوف بشأن تطوير الذكاء الاصطناعي العام.
وفي هذا الصدد، حذر إيلون ماسك، مؤسس شركتي تسلا وسبيس إكس، مرارا وتكرارا من التهديد المحتمل للذكاء الاصطناعي، معتقدا أن الذكاء الاصطناعي قد يكون من أكبر المخاطر التي تواجه الحضارة الإنسانية، وأن سرعة تطوره قد تتجاوز بكثير توقعات الإنسان، وستكون العواقب لا يمكن تصورها إذا لم يكن هناك تنظيم وسيطرة فعالة.
أشار بعض المحللين الماليين أيضا إلى أنه على الرغم من أن ظهور الذكاء الاصطناعي العام قد يجلب قيمة تجارية ضخمة وتغييرات اجتماعية ، إلا أنه يجب على الشركات أن تفكر تماما في مخاطرها المحتملة أثناء الاستثمار بكثافة في البحث والتطوير ، وإلا فقد يؤدي ذلك إلى أزمة عالمية.