كاسبرسكي تكشف عن أسلوب جديد يُستخدم للتحكم بروبوتات المحادثة البحثية المدعومة بالذكاء الاصطناعي
كشفت دراسة جديدة أجرتها كاسبرسكي عن اتجاه متزايد نحو «حقن الأوامر غير المباشر»، وهو أسلوب يُستخدم للتلاعب بمخرجات النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT وروبوتات المحادثة البحثية المدعومة بالذكاء الاصطناعي. ورغم عدم العثور على أمثلة لأفعال مدمرة خطيرة بواسطة روبوتات المحادثة، إلا أن احتمال إساءة استخدامها لا يزال قائماً.
تُعد النماذج اللغوية الكبيرة أدوات قوية لاستخدامات مختلفة، بدايةً من تحليل المستندات، مروراً بتعين الموظفين، وانتهاءً بالبحث عن التهديدات. ومع ذلك، اكتشف باحثو كاسبرسكي ثغرة أمنية يمكن لمصادر التهديد الخبيثة استغلالها لتضمين تعليمات مخفية داخل المواقع الإلكترونية والمستندات عبر الإنترنت. وبعد ذلك، يمكن أن تلتقط الأنظمة القائمة على النماذج اللغوية الكبيرة هذه التعليمات، مما قد يؤثر على نتائج البحث أو استجابات روبوتات المحادثة.
حددت الدراسة عدة استخدامات لحقن الأوامر غير المباشر:
عمليات الحقن المتعلقة بالموارد البشرية: يقوم الباحثون عن الوظائف بتضمين أوامر مخصصة في سيرهم الذاتية للتلاعب بخوارزميات التوظيف وضمان الحصول على مخرجات أو أولويات مواتية بواسطة أنظمة الذكاء الاصطناعي. وتُطبق أساليب مثل استخدام الخطوط الصغيرة أو مطابقة لون النص مع الخلفية لإخفاء الهجوم عن المراجعين البشريين.
عمليات الحقن الإعلانية: يقوم المعلنون بحقن الأوامر في صفحات الهبوط للتأثير على روبوتات المحادثة البحثية لتوليد مراجعات إيجابية للمنتجات.
عمليات الحقن الاحتجاجية: يعبر الأفراد المعارضون للاستخدام واسع النطاق للنماذج اللغوية الكبيرة عن معارضتهم عبر تضمين دعوات احتجاجية في مواقعهم الإلكترونية وملفاتهم الشخصية على وسائل التواصل الاجتماعي، من خلال أوامر فكاهية، أو جادة، أو عدوانية.
عمليات الحقن كإهانة: على وسائل التواصل الاجتماعي، يوظف المستخدمون حقن الأوامر كشكل من أشكال الإهانة أو لتعطيل روبوتات البريد العشوائي، وغالباً ما يكون ذلك من خلال طلبات لتوليد قصائد، أو فن لغة ASCII، أو آراء حول مواضيع سياسية.
ورغم عدم توصل الدراسة لأي دليل على الاستخدام الخبيث لتحقيق مكاسب مالية، إلا أنها تسلط الضوء على المخاطر المستقبلية المحتملة. وعلى سبيل المثال، يمكن للمهاجمين التلاعب بالنماذج اللغوية الكبيرة لنشر معلومات مضللة أو استخراج بيانات حساسة.
علق فلاديسلاف توشكانوف، مدير مجموعة تطوير الأبحاث في فريق أبحاث تكنولوجيا تعلم الآلة لدى كاسبرسكي: «يُعد حقن الأوامر غير المباشر بمثابة ثغرة أمنية جديدة تسلط الضوء على الحاجة لاتخاذ تدابير أمنية قوية في عصر الذكاء الاصطناعي. ومن خلال فهم هذه المخاطر وتطبيق الضمانات المناسبة، يمكننا ضمان استخدام النماذج اللغوية الكبيرة بأمان ومسؤولية.»
لحماية أنظمتك الحالية والمستقبلية القائمة على النماذج اللغوية الكبيرة (LLMs)، ضع في اعتبارك النصائح التالية:
افهم نقاط الضعف المحتملة في أنظمتك القائمة على النماذج اللغوية الكبيرة، وقيّم المخاطر المرتبطة بهجمات حقن الأوامر.
كن على دراية بالمخاطر المهددة للسمعة، حيث يمكن التلاعب بروبوتات التسويق لإصدار تصريحات متطرفة، مما قد يؤدي لأضرار محتملة على السمعة.
تصالح مع واقع محدودية الحماية. إذ لا يمكن تحقيق الحماية الكاملة ضد حقن الأوامر، وخاصةً مع الهجمات الأكثر تعقيداً مثل الحقن متعدد الوسائط.
استخدم أدوات تعديل الإدخال والإخراج لتصفية مدخلات ومخرجات النماذج اللغوية الكبيرة، ولو أنها لا توفر أماناً كاملاً.
تعرف على المخاطر التي تنشأ عن معالجة المحتوى غير الموثوق أو غير المؤكد في أنظمة النماذج اللغوية الكبيرة.
قيّد قدرات اتخاذ القرار لأنظمة الذكاء الاصطناعي لمنع اتخاذ إجراءات غير مقصودة.
تأكد من أن جميع أجهزة الحواسيب والخوادم التي تشغل الأنظمة القائمة على النماذج اللغوية الكبيرة محمية بأدوات وممارسات أمنية حديثة.