مايكروسوفت تنبه العالم من المخاطر المحتملة لتقنيات الذكاء الاصطناعي الخفي وتأثيراتها المدمرة على المجتمع

(د ب أ)

أصدرت مايكروسوفت، الشركة العملاقة في مجال البرمجيات والتكنولوجيا، تحذيرًا قويًا حول الاستخدام غير المنضبط لتطبيقات المساعد الآلي التي تعتمد على الذكاء الاصطناعي، وذلك قبيل انطلاق مؤتمر ميونخ للأمن.

تزايد استخدام الذكاء الاصطناعي في الشركات

وفقًا لتقرير حديث، أظهرت أبحاث مايكروسوفت أن أكثر من 80% من الشركات المدرجة في قائمة فورتشن 500 قد قامت باستخدام برامج المساعد الآلي، رغم أن معظم تلك الشركات تفتقر إلى قواعد واضحة لتنظيم استخدام الذكاء الاصطناعي، مما يؤدي إلى مخاطر جسيمة. يسلط التقرير الضوء على أهمية وجود لوائح رقابية لتفادي الهجمات السيبرانية الجديدة الناتجة عن استخدام “الذكاء الاصطناعي الخفي”، وهو مصطلح يشير إلى استخدام الموظفين لتطبيقات الذكاء الاصطناعي دون علم قسم تقنية المعلومات أو الأمن السيبراني في الشركة.

التحديات الرقمية وتأثير الذكاء الاصطناعي

يعمل الموظفون بشكل مستقل على استخدام أدوات الذكاء الاصطناعي المتاحة عبر الإنترنت، مثل برامج التشغيل الذاتي، لإنجاز مهامهم بشكل أسرع، مع تجاهل إبلاغ أي شخص في التسلسل الوظيفي. يُبرز تقرير مايكروسوفت الفجوة المتنامية بين الابتكار والأمن السيبراني، حيث أن أقل من نصف الشركات – 47% فقط – تمتلك ضوابط أمنية محددة لاستخدام الذكاء الاصطناعي التوليدي، ويستخدم 29% من الموظفين برامج غير مصرح بها، مما يعرض أنظمة الشركات لمخاطر كبيرة.

استراتيجيات تحسين الأمن السيبراني

تتزايد المخاطر بصورة ملحوظة إذا لم تتاح للشركات فرصة كافية لتطبيق الذكاء الاصطناعي في عملياتها، مما قد يؤدي إلى تجاوز ضوابط الأمن والامتثال، وزيادة احتمالية الاستخدام غير المصرح به لتلك التطبيقات. لذلك، يجب على الشركات وضع إطار عمل يفصل بين الابتكار وتأمين البيانات لضمان حماية المعلومات الحساسة.

تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *