أجرت كاسبرسكي دراسة حديثة عنوانها «الأمن السيبراني في العمل: معارف الموظفين وسلوكياتهم»، وقد شملت الدراسة منطقة الشرق الأوسط، وبينت نتائجها أنّ 86% من الموظفين المشمولين بالاستطلاع يستخدمون أدوات الذكاء الاصطناعي في مهام العمل. لكن لم يتلقّ إلا 44% من أولئك الموظفين تدريبات على جوانب الأمن السيبراني المرتبطة بالذكاء الاصطناعي، التي تعرف بأنها من العناصر الجوهرية للحماية من أخطار استخدام الذكاء الاصطناعي، بدءاً من تسريب البيانات وانتهاء بعمليات حقن أوامر الذكاء الاصطناعي الخبيثة.
أشار 92% من المشاركين ضمن منطقة الشرق الأوسط، إلى إدراكهم معنى مصطلح «الذكاء الاصطناعي التوليدي»، وقد تجاوزت هذه المعرفة الجوانب النظرية؛ إذ باتت أدوات الذكاء الاصطناعي جزءاً جوهرياً من حياتهم اليومية. يستخدم 86% من المشاركين أدوات الذكاء الاصطناعي في أعمالهم؛ سواء لكتابة النصوص وتحريرها 65%، أو في كتابة رسائل البريد الإلكتروني المرتبطة بالعمل 56%، أو في إنشاء صور وفيديوهات باستخدام الذكاء الاصطناعي 49%، أو في تحليل البيانات 52%.
فجوة خطيرة
وأظهر الاستطلاع فجوة خطيرة في جاهزية الموظفين للتعامل مع أخطار الذكاء الاصطناعي؛ إذ أفاد 23% من الموظفين في منطقة الشرق الأوسط بعدم حصولهم على أي تدريب مرتبط بالذكاء الاصطناعي. أما الموظفون الذين حضروا دورات تدريبية بهذا المجال، فأشار 57% منهم إلى أنّ تلك الدورات ركزت على طريقة استخدام أدوات الذكاء الاصطناعي بفعالية وإنشاء الأوامر، أما الموظفون الذين تدربوا على جوانب الأمن السيبراني المرتبطة باستخدام الذكاء الاصطناعي فاقتصرت نسبتهم على 44% فقط.
وبحسب الدراسة التي تلقة موقع “برس بوست” نسخة منها، قال 75% من المشاركين إنّ استخدام أدوات الذكاء الاصطناعي التوليدي مسموح في عملهم، بينما أقر 19% بعدم السماح بها، في حين أبدى 6% عدم يقينهم من قرار شركتهم بشأنها.
ويقول راشد المومني، المدير العام لمنطقة الشرق الأوسط لدى كاسبرسكي: «لا يجب المنع التام أو الاستخدام المطلق غير المقيد عند استخدام الذكاء الاصطناعي في جميع أقسام الشركة. فالاستراتيجية الأكثر فعالية هي اتباع سياسة متوازنة تتيح للموظفين مستويات متفاوتة من الوصول إلى الذكاء الاصطناعي، وذلك وفقاً لحساسية البيانات في كل قسم من الشركة. وإذا ترافق هذا الأمر مع التدريب المناسب، فسيزيد مستويات الكفاءة والمرونة، ويحافظ على معايير أمنية قوية».
توصي كاسبرسكي المؤسسات باتباع التدابير التالية لضمان استخدام الذكاء الاصطناعي بأمان وثقة:
• احرص على تدريب الموظفين على الاستخدام المسؤول للذكاء الاصطناعي. وتعزز دورات أمن الذكاء الاصطناعي التدريبية، المتاحة في منصة كاسبرسكي للتوعية الأمنية، البرامج التعليمية في الشركات بتدريبات متخصصة.
• زوّد متخصصي تكنولوجيا المعلومات بالمعارف اللازمة بخصوص تقنيات استغلال الثغرات واستراتيجيات الدفاع العملية. وتقدم كاسبرسكي تدريب «أمن النماذج اللغوية الكبيرة» ضمن مجموعتها لتدريبات الأمن السيبراني، وهو إلى ذلك يعزز التطور المهني والأمن السيبراني الشامل للمؤسسة.
• تأكد من تثبيت الموظفين لحلٍ للأمن السيبراني في أجهزتهم الشخصية والمهنية التي يستخدمونها للوصول إلى بيانات الأعمال. مثل المنتجات التي تحمي من التصيد الاحتيالي أو تثبيت أدوات ذكاء اصطناعي وهمية، لا سيما أنّ الوقت الحالي يشهد تنامياً في أعداد المجرمين الذين يدمجون برمجيات سرقة المعلومات في تطبيقات الذكاء الاصطناعي الوهمية.
• احرص على تنفيذ استطلاعات منتظمة لمراقبة وتيرة استخدام الذكاء الاصطناعي والمهام المرتبطة به. ويمكنك الاستعانة بهذه المعلومات لتقييم فوائد الذكاء الاصطناعي ومخاطره، وتعديل سياسات الشركة وفقاً لها.
• استخدم وكيلَ ذكاء اصطناعي متخصصاً يتولى تصفية استعلامات الموظفين آنياً لإزالة بعض البيانات الحساسة مثل (الأسماء أو معرفات العملاء)، ويطبق نظام التحكم المعتمد على الدور الوظيفي لمنع حالات الوصول غير المصرح بها.
• أنشئ سياسة شاملة تتناول مجموعة الأخطار المتعلقة بالذكاء الاصطناعي.
يشار إلى أن وكالة تولونا للأبحاث أجرت هذا الاستطلاع عام بطلب من “كاسبرسكي”، وتضمنت عينة الدراسة إجراء 2,800 مقابلة مرئية عبر الإنترنت مع موظفين وأرباب أعمال يستخدمون الحواسيب في عملهم ضمن 7 دول هي: تركيا، وجنوب إفريقيا، وكينيا، وباكستان، ومصر، والمملكة العربية السعودية، ودولة الإمارات العربية المتحدة.
