
في تطور يثير القلق، بدأت التنظيمات الإرهابية، وعلى رأسها تنظيم داعش، في استخدام أدوات الذكاء الاصطناعي لتعزيز نشاطاتها الدعائية والتجنيدية، بل وتوسيع قدراتها التنفيذية، ما يمثل نقلة نوعية في أنماط التهديدات التي تواجهها الحكومات حول العالم.
ووفقًا لتقرير نشره موقع "يورونيوز" يوم، فإن تقنيات الذكاء الاصطناعي، من بينها أدوات كتابة النصوص والصور التوليدية، أصبحت جزءًا أساسيًا من أدوات التنظيمات المتطرفة، حيث تُستخدم لإنتاج محتوى دعائي فعال، وصور مقنعة، ومقاطع صوتية موجهة تستهدف شرائح عمرية وشخصيات بعينها داخل المجتمعات.
التقرير أشار إلى أن عناصر متطرفة باتت تستعين بتطبيقات مثل ChatGPT وDALL·E لتوليد منشورات وأشرطة صوتية ومقاطع فيديو، تُسهل نشر رسائل التنظيم عبر الإنترنت بلغة عصرية ومؤثرة.
تقنيات الذكاء الاصطناعي من بينها أدوات كتابة النصوص والصور التوليدية أصبحت جزءًا أساسيًا من أدوات التنظيمات المتطرفة
الأخطر، بحسب "يورونيوز"، أن هذه الأدوات تُستخدم في غرف الدردشة المشفرة لتقديم محتوى تعليمي حول تصنيع المتفجرات أو شنّ هجمات فردية.
كما كشف التقرير أن تنظيم داعش نشر ما يُسمى "دليل استخدام الذكاء الاصطناعي"، وهو وثيقة داخلية تُروّج لاستخدام AI في خدمة ما يُعرف بـ"القتال الرقمي"، في دلالة على أن الجماعة لا تكتفي باستخدام التقنية بل تسعى لتعميمها داخل بنيتها.
هذا الاستخدام المبتكر للتكنولوجيا من قِبل الجماعات الإرهابية يضع تحديات إضافية أمام الأجهزة الأمنية، التي تجد نفسها مضطرة لتطوير أدوات رصد ومراقبة تتناسب مع السرعة والمرونة التي يوفّرها الذكاء الاصطناعي.
وفي ظل صعوبة تتبع المحتوى المُنشأ تلقائيًا، خاصة عندما يُستخدم في التشفير أو التنكر كمواد تعليمية، تتعاظم الحاجة لتعاون بين شركات التكنولوجيا والحكومات لمراقبة الاستخدامات الخطرة لهذه الأدوات.
الأخطر أن هذه الأدوات تُستخدم في غرف الدردشة المشفرة لتقديم محتوى تعليمي حول تصنيع المتفجرات أو شنّ هجمات فردية
الدعوات تتصاعد في الأوساط الدولية لتبني استراتيجيات أمنية جديدة، تشمل فرض مزيد من الرقابة على أدوات الذكاء الاصطناعي، وتطوير أنظمة إنذار مبكر قادرة على كشف المحتوى المتطرف قبل انتشاره.
ومع توسّع نطاق استغلال هذه التكنولوجيا من قبل المتطرفين، لم يعد الذكاء الاصطناعي مجرد أداة للمساعدة، بل تحول إلى جبهة صراع جديدة في الحرب على الإرهاب.