خبير سياسي: التنظيمات الإرهابية دخلت عصر الذكاء الاصطناعي وعلى الحكومات تطوير استراتيجيات المواجهة

خبير سياسي: التنظيمات الإرهابية دخلت عصر الذكاء الاصطناعي وعلى الحكومات تطوير استراتيجيات المواجهة

خبير سياسي: التنظيمات الإرهابية دخلت عصر الذكاء الاصطناعي وعلى الحكومات تطوير استراتيجيات المواجهة
التنظيمات الإرهابية

في تطور خطير ومثير للقلق، دخلت التنظيمات الإرهابية، وعلى رأسها تنظيم "داعش"، عصر الذكاء الاصطناعي، حيث باتت هذه الجماعات توظف أدوات الذكاء الاصطناعي الحديثة في تعزيز نشاطاتها الدعائية والتجنيدية، بل وتوسيع قدراتها التنفيذية، ما يمثل نقلة نوعية في أنماط التهديدات الأمنية التي تواجهها الحكومات وأجهزة الاستخبارات حول العالم.

وبحسب تقرير، فإن تقنيات الذكاء الاصطناعي، بما في ذلك أدوات كتابة النصوص التوليدية وتوليد الصور، أصبحت جزءًا لا يتجزأ من ترسانة التنظيمات المتطرفة، حيث تُستخدم في إنتاج محتوى دعائي فعال يتميز بالقدرة على التأثير والإقناع، عبر صور رقمية معدّلة ومقاطع صوتية ومرئية عالية الجودة.

وتُظهر المعطيات، أن التنظيمات باتت تستعين بتطبيقات الذكاء الاصطناعي الشهيرة مثل ChatGPT وDALL·E، وغيرها من المنصات، لتوليد منشورات وأشرطة دعائية ومقاطع فيديو حديثة الصياغة والأسلوب، ما يسهل نشر رسائلها المتطرفة عبر منصات الإنترنت ومواقع التواصل الاجتماعي بلغة عصرية تستهدف شرائح عمرية محددة، لاسيما فئة الشباب.

لكن الأمر لا يقتصر على الجوانب الدعائية فحسب؛ فالتقرير يُحذّر من أن هذه التنظيمات بدأت تعتمد على غرف الدردشة المشفّرة، حيث تُستخدم أدوات الذكاء الاصطناعي لتقديم محتوى تعليمي خطير حول تصنيع المتفجرات أو التخطيط لهجمات فردية. وهو ما يعني أن التكنولوجيا لم تَعُد مجرد وسيلة ترويجية بل تحولت إلى أداة تنفيذية مميتة يمكن أن تعزز العمليات الإرهابية على الأرض.

الأخطر من ذلك، أن تنظيم "داعش" نشر بالفعل وثيقة داخلية بعنوان "دليل استخدام الذكاء الاصطناعي"، تُروّج لاستخدام تقنيات AI فيما يُعرف بـ"القتال الرقمي"، في إشارة واضحة إلى رغبة التنظيم في تعميم استخدام هذه التكنولوجيا بين عناصره ومناصريه حول العالم.

هذا الاستخدام المبتكر للتكنولوجيا من قِبل الجماعات الإرهابية يفرض تحديات غير مسبوقة أمام الأجهزة الأمنية، التي تجد نفسها أمام سباق مع الزمن لتطوير أدوات رصد ومراقبة قادرة على مجاراة السرعة والمرونة التي توفرها أدوات الذكاء الاصطناعي.

ومع تزايد صعوبة تتبّع المحتوى المنشأ تلقائيًا، خاصة عندما يُستخدم في بيئات مشفّرة أو في سياق مواد تبدو تعليمية أو تقنية، تتعاظم الحاجة إلى بناء آليات تعاون أوسع بين شركات التكنولوجيا الكبرى والحكومات بهدف مراقبة الاستخدامات الخطيرة لهذه التقنيات ومنع وقوع الكارثة قبل فوات الأوان.

وفي مواجهة هذا التهديد المتنامي، تتصاعد الدعوات داخل الأوساط الدولية لتبني استراتيجيات أمنية جديدة، تشمل فرض مزيد من الرقابة على أدوات الذكاء الاصطناعي وتطوير أنظمة إنذار مبكر قادرة على رصد المحتوى المتطرف في مراحله الأولى.

وحذّر العميد حاتم صابر، الخبير في شؤون مكافحة الإرهاب الدولي، من خطورة توجّه التنظيمات الإرهابية، وفي مقدمتها تنظيم "داعش"، لاستخدام تقنيات الذكاء الاصطناعي كأداة جديدة لتوسيع أنشطتها الدعائية والتجنيدية، بل وحتى عملياتها التنفيذية، مؤكدًا أن العالم يواجه جبهة جديدة من التهديدات غير التقليدية.

وفي تصريح خاص للعرب مباشر، أوضح العميد صابر أن الجماعات الإرهابية لطالما كانت بارعة في استغلال التكنولوجيا لصالحها، لكن دخول الذكاء الاصطناعي على خط التطرف يمثّل "نقلة خطيرة" ستُصعّب مهمة أجهزة الأمن والمخابرات حول العالم.

وقال: تنظيم داعش وغيره من الجماعات المتطرفة بدأوا بالفعل في استخدام أدوات ذكاء اصطناعي مثل ChatGPT وDALL·E لإنتاج محتوى دعائي عالي الجودة ومؤثر، يُخاطب فئات عمرية مختلفة بلغة عصرية تجذب الانتباه، كما يستخدمون هذه التقنيات في غرف دردشة مشفّرة لتدريب الذئاب المنفردة على تنفيذ هجمات أو تصنيع متفجرات بطريقة يصعب تتبعها".

وأشار الخبير، أن الخطر الأكبر يكمن في أن هذه الأدوات تتيح لأي شخص، دون الحاجة إلى خبرات تقنية متقدمة، الوصول إلى محتوى تعليمي حول العنف والإرهاب، وهو ما يرفع من وتيرة التهديدات العابرة للحدود.

وأكد العميد صابر أن إصدار تنظيم "داعش" لما يسمى بـ"دليل استخدام الذكاء الاصطناعي" يكشف عن توجّه استراتيجي لدى الجماعات الإرهابية نحو ما أطلق عليه "القتال الرقمي"، وهو مصطلح يشير إلى توظيف التكنولوجيا في تعزيز العمليات الإرهابية والانتشار الفكري المتطرف.

ودعا العميد حاتم صابر الحكومات وأجهزة الأمن إلى الإسراع في تبني استراتيجيات شاملة لمواجهة هذا التهديد المتطور، من خلال: تطوير أدوات ذكاء اصطناعي مضادة قادرة على رصد وتحليل المحتوى المتطرف وتعزيز التعاون الدولي بين الدول وشركات التكنولوجيا الكبرى وسنّ تشريعات واضحة تنظم استخدام أدوات الذكاء الاصطناعي وتضع قيودًا على الاستخدامات الضارة.