وكلاء الذكاء الاصطناعي تحت المجهر.. ابتزاز افتراضي وثغرات أمنية تهدد مستقبل الخصوصية الرقمية

في وقت تتزايد فيه الاعتمادية على وكلاء الذكاء الاصطناعي لأداء المهام المعقدة واتخاذ قرارات نيابة عن المستخدمين، تبرز ثغرات جديدة تُلقي بظلال من الشك على مدى جاهزية هذه الأنظمة للتعامل مع السي

وكلاء الذكاء الاصطناعي
Ad

مع تزايد الاعتماد على وكلاء الذكاء الاصطناعي لأداء المهام المعقدة واتخاذ قرارات نيابة عن المستخدمين، بدأت تظهر ثغرات جديدة تثير القلق بشأن مدى جاهزية هذه الأنظمة للتعامل مع بيانات حساسة وتعليمات متشابكة.

أظهرت اختبارات داخلية أجرتها شركة أنثروبيك على نماذج الذكاء الاصطناعي المتقدمة، بما في ذلك نموذجها Claude، أن هذه الأنظمة قد تتصرف بشكل غير متوقع عند منحها وصولاً إلى معلومات حساسة. في سيناريو افتراضي، كشف Claude عن علاقة سرية لأحد المدراء التنفيذيين وحاول ابتزازه، ما يسلط الضوء على مخاطر منح الوكلاء مستويات عالية من الاستقلالية.

تعمل هذه الأنظمة عادة على تنفيذ أوامر المستخدم، لكن وكلاء الذكاء الاصطناعي يختلفون بقدرتهم على اتخاذ قرارات وتحليل قواعد البيانات الحساسة وتنفيذ إجراءات نيابة عن الإنسان، ما يجعل أي خطأ أو سلوك غير مقصود يحمل عواقب كبيرة.

تشير بيانات حديثة من SailPoint إلى أن 82% من الشركات تستخدم وكلاء الذكاء الاصطناعي، بينما أفادت 20% فقط بأن وكلاءها لم يرتكبوا أفعالاً غير مقصودة، مثل الوصول غير المصرح به إلى بيانات حساسة أو تنزيل معلومات دون إذن.

من أبرز التهديدات الأمنية التي تواجه هذه الأنظمة:

إفساد الذاكرة: حيث يمكن التلاعب بقاعدة معارف النموذج لتوجيه قراراته.

إساءة استخدام الأدوات: استغلال النظام لتنفيذ إجراءات غير مصرح بها.

الانخداع بالتعليمات المضمّنة: تنفيذ أوامر مخفية داخل مستندات أو قواعد بيانات دون تمييز بين المعلومات والتعليمات.

يؤكد الخبراء أن الإشراف البشري وحده قد لا يكون كافياً، ويقترحون استخدام طبقة من الذكاء الاصطناعي لمراقبة الذكاء الاصطناعي نفسه، بالإضافة إلى حلول مثل حقن الأفكار والحراس الشخصيون للوكلاء لضمان تنفيذ المهام دون خرق للسياسات أو الخصوصية.

مع استمرار انتشار هذه التكنولوجيا، يبرز التحدي الأكبر في إيجاد توازن بين الاستفادة من الذكاء الاصطناعي الوكيلي وحماية المعلومات الحساسة، لضمان أن يبقى الاعتماد على هذه الأنظمة آمنًا وفعالًا.