تم نقل هذه المقالة من:محطة مستخدم أخبار التلفزيون المركزي
تكنولوجيا الذكاء الاصطناعي ذات النماذج الكبيرة باعتبارها جوهرها هي المحرك الرئيسي لتغيير نموذج الابتكار والارتقاء الصناعي ، وبدأت المزيد والمزيد من الوكالات الحكومية والشركات والمؤسسات في تعزيز خصخصة ونشر النماذج الكبيرة ، والتي تستخدم على نطاق واسع في مكاتب المؤسسات والبحث العلمي والتكنولوجي والتطوير والخدمات العامة وغيرها من المجالات. ومع ذلك ، فقد تطورت القفزات التكنولوجية والمخاطر الأمنية دائما ، وأصبحت كيفية تعزيز الإدارة الأمنية لدورة حياة النماذج بأكملها وتمكين صناعة الذكاء الاصطناعي من التطور للأفضل مشكلة ملحة يجب حلها.
المخاطر المحتملة التي يجب أخذها في الاعتبار
وجد عدد من الدراسات الحديثة أن ما يقرب من 90٪ من الخوادم المنتشرة في الخصخصة "متخطوطة" على الإنترنت ، وبعض النماذج نفسها معرضة أيضا للهجمات ، مع وجود ثغرات أمنية. في الوقت الحاضر ، فإن ما يسمى ب "تحصين" الوحدات الفردية هو ببساطة إعداد كلمات مرور ، والتي يسهل اختراقها ، وبعض الوحدات لا تحتوي حتى على كلمات مرور حماية. من المتوقع أنه في المستقبل ، مع تعميم واستخدام النماذج الكبيرة ، لا بد أن ترتفع الأساليب الضارة المستهدفة وسيناريوهات المخاطر. لذلك ، يجب أن تتطور حماية الأمن السيبراني جنبا إلى جنب مع التطورات التكنولوجية.
- مشكلات أمنية للبيانات الحساسة. ستتضمن النماذج الكبيرة كميات هائلة من البيانات في عملية التدريب والاستدلال والاستخدام ، مثل التخزين والمعالجة غير السليمة لإدخال البيانات من قبل المستخدمين ، خاصة عندما تتم معالجة البيانات السرية وبيانات الخصوصية الشخصية والبيانات الحساسة تجاريا في نماذج غير محمية في انتهاك للأنظمة ، وهناك خطر من الحصول على البيانات وتسريبها بشكل غير قانوني.
- قضايا أمنية في المجالات الرئيسية. لا يمكن فصل الذكاء الاصطناعي عن الأجهزة عالية التقنية ، مثل تلك المزروعة بأبواب خلفية ، والتي تعرض المناطق الحيوية مثل المصانع الذكية والمؤسسات المالية ومرافق الطاقة للخطر. وإذا استخدم المجرمون بشكل ضار الثغرات الأمنية التي تنشرها النماذج الكبيرة لإلحاق الضرر بالنظم ذات الصلة، فقد يؤدي ذلك إلى انقطاع الخدمات العامة، والخسائر الاقتصادية للمؤسسات، والحوادث الأمنية المتكررة وغيرها من الحوادث الوحشية، والتدخل في التشغيل العادي للاقتصاد والتشغيل المنظم للمجتمع.
- التعدي على مصالح المستخدمين. إذا كان المستخدم العادي يستخدم أداة خدمة نموذجية كبيرة بدون حماية، فيمكن للمهاجم أيضا استدعاء واجهات برمجة التطبيقات عن بعد لسرقة الأصول الأساسية مثل معلمات النموذج وبيانات التدريب وقواعد المعرفة، أو حذف ملفات النموذج الخاصة أو تلويثها، مما يؤدي إلى فشل النموذج أو انحراف الإخراج. في الوقت نفسه ، يمكن للمهاجم استدعاء وظيفة استدلال النموذج من خلال واجهات غير مصرح بها وإساءة استخدام موارد GPU. إذا كانت كمية البيانات التي تمت معالجتها كبيرة جدا ، شلل خادم النموذج الكبير بسبب استنفاد قوة الحوسبة.
أسباب المخاطر الأمنية في النماذج الكبيرة
- هناك أوجه قصور في إطار المصادر المفتوحة. من أجل تشغيل الخدمات بسرعة، تستخدم العديد من المؤسسات أطر عمل مفتوحة المصدر مباشرة، وتمكن وضع الوصول إلى الشبكة العامة بدون كلمات مرور افتراضيا، ولا تقوم بتكوين تدابير حماية أمنية معقولة، وتتجاهل تكوين جدار الحماية الأساسي. يحصل المهاجمون على وصول غير مصرح به إلى الخدمات النموذجية ، ويسرقون البيانات الحساسة ، وحتى ينفذون تعليمات ضارة من خلال الثغرات الأمنية التاريخية ، مما يؤدي إلى خروقات البيانات وتعطيل الخدمة.
- هناك نقص في الوعي بالمخاطر. يتخلف بعض المديرين نسبيا عن الركب في فهمهم لأمن الذكاء الاصطناعي ، ويعتقد البعض أن "الأمن هو عمل خبير" ، ولا يفهمون أن نشر خدمات الذكاء الاصطناعي يجب أن يكون حذرا مثل حماية كلمات مرور البطاقات المصرفية ، ولا يأخذ في الاعتبار المخاطر الخفية وراءها عند الاستمتاع بالراحة التي يوفرها الذكاء الاصطناعي.
- يجب تعزيز التثقيف الأمني. تفتقر بعض الشركات والمؤسسات إلى التثقيف اللازم حول السلامة ، مما يؤدي إلى انخفاض الوعي بالأمن القومي ومعرفة القراءة والكتابة لدى الموظفين ، وضعف الوعي باحتياطات السلامة ، ونقص الإدارة الدقيقة للنماذج الكبيرة ، ونقص الفهم اللازم للتثقيف الأمني.
- هناك ثغرة في القانون الخاص. في السنوات الأخيرة ، أصدرت الصين عددا من السياسات واللوائح والإرشادات بشأن الذكاء الاصطناعي وبيانات الشبكة ، ولكن مع التطور السريع للذكاء الاصطناعي ، تحتاج القضايا القانونية التي ظهرت إلى مزيد من التحسين.
تذكير من أجهزة أمن الدولة
تعتبر النماذج الكبيرة قوة مهمة لتعزيز التقدم العلمي والتكنولوجي ، ولكن يجب عدم تخفيف حمايتها الأمنية ، سواء كانوا مطورين أو مؤسسات أو مستخدمين عاديين ، يجب أن يكونوا يقظين ويحمون بشكل مشترك المكاسب التقنية من الاستخدام الضار.
- قم بعمل جيد في حماية السلامة وقم ببناء حاجز أمني قوي. في عملية تطوير وتطبيق النماذج الكبيرة ، تحتاج شركات الذكاء الاصطناعي إلى الانتباه إلى مسؤولياتها والتزاماتها الأمنية ، ويمكنها تعزيز أمن وموثوقية واستقرار النماذج الكبيرة من خلال تعزيز الاتصال والتعاون مع بائعي الأمن ، واستخدام الدعم الفني الأمني الصارم ومراقبة التشغيل.
- تنمية الوعي الأمني وبناء نظام بيئي دفاعي تعاوني. قبل نشر النماذج الكبيرة ، تحتاج الوحدات والمؤسسات إلى إجراء تقييم شامل للمخاطر وتخطيط السلامة ، وتحسين الوعي بالسلامة لجميع الموظفين من خلال صياغة سياسات السلامة وإجراء التدريب على السلامة. يجب على عامة الناس تعزيز الوعي الأمني باستخدام النماذج الكبيرة ، والاهتمام بتعلم المعرفة الأمنية ذات الصلة ، وتطوير عادات الاستخدام الجيدة ، واختيار تنزيل أدوات نموذجية كبيرة من القنوات الرسمية ، وعدم الاتصال بشبكات غير مألوفة حسب الرغبة عند استخدامها ، وذلك لضمان سلامة واستقرار تطبيقات النماذج الكبيرة. (المراسل سونغ شوان)