تترافق تكنولوجيا الذكاء الاصطناعي بفرص هائلة لتعزيز الكفاءة في المؤسسات، ومع ذلك، تشير التقارير الأمنية الأخيرة من مايكروسوفت إلى مخاطر متنامية تتعلق باستخدام وكلاء هذه التقنية، حيث إن منح هذه الأنظمة صلاحيات واسعة دون ضوابط صارمة قد يفقدها وظيفتها كأداة دعم، ويحولها إلى مصدر تهديد داخل المؤسسات.
المخاطر المؤسسية للصلاحيات المفرطة
أوضحت مايكروسوفت أن بعض أنظمة الذكاء الاصطناعي تتاح لها إمكانيات وصول واسعة إلى البيانات والأنظمة الداخلية، ولكنها تفتقر لإجراءات حماية كافية، ما يؤدي إلى استغلال هذه الأنظمة من قِبل جهات خبيثة عبر توجيهها بتعليمات مضللة أو إدخال محتوى خادع، مما يعرّض المؤسسات لمخاطر جسيمة في حال تم استخدامها بشكل غير مسؤول.
الانتشار الهائل في الشركات الكبرى
تشير التقارير إلى أن أكثر من 80% من شركات قائمة فورتشن 500 تستخدم أدوات الذكاء الاصطناعي المُطورة عبر منصات منخفضة أو بدون تعليمات برمجية، مما يسهل على الجميع التطوير، لكنه في ذات الوقت يعرض الجوانب الأمنية للخطر، كما كشف استطلاع شمل أكثر من 1700 متخصص في مجال أمن البيانات عن أن 29% من الموظفين يستخدمون أدوات الذكاء الاصطناعي بدون موافقة الأقسام التقنية.
أساليب استغلال الأنظمة الذكية
رصد الباحثون حالات يُمكن فيها تضليل أنظمة الذكاء الاصطناعي عن طريق إدخال تعليمات ضارة داخل محتوى يبدو عاديًا، كما يمكن التلاعب بطريقة عرض المهام لتغيير سلوك النظام، ومع صلاحيات هذه الأنظمة الواسعة، قد يؤدي أي توجيه خاطئ إلى كشف بيانات حساسة أو تنفيذ أوامر غير مقصودة.
أهمية نموذج انعدام الثقة
من أجل مواجهة هذه التحديات، أوصت مايكروسوفت بتطبيق إطار أمني يعتمد على مبدأ انعدام الثقة، والذي يقوم على مبدأ “لا تثق أبدًا، تحقق دائمًا”، ويتضمن ذلك التحقق المستمر من صلاحيات الوصول ومراقبة سلوك الأنظمة والمستخدمين، سواء داخل الشبكة أو خارجها.
بين الفرص والمخاطر
على الرغم من التحذيرات، فإن مايكروسوفت تؤكد أن الذكاء الاصطناعي يوفر فرصة كبيرة لتعزيز الإنتاجية وتحسين سير العمل، لذا فإن الاستفادة القصوى من هذه التقنيات تتطلب وضع حوكمة واضحة، وإدارة دقيقة للصلاحيات، وتطبيق معايير أمنية متقدمة تحول دون تحول أدوات الذكاء الاصطناعي إلى مصادر تهديد غير متوقعة.
