
تتمتع تطورات الذكاء الاصطناعي بإمكانات كبيرة في تحسين مجالات مثل العلوم والصحة، وتغيير طريقة العمل والتعليم، بالإضافة إلى تطبيقاتها في علم الأحياء والإسهام في حل مشكلة طي البروتين وتطوير الأدوية؛ في ضوء ذلك تتناول دراسة حديثة صادرة عن مركز المستقبل للأبحاث والدراسات المتقدمة مخاطر استخدام تقنيات الذكاء الاصطناعي لتنفيذ هجمات إرهابية في المجال البيولوجي من جانب جماعات خبيثة.
بحسب الدراسة التي جاءت تحت عنوان: "التوظيفات الخطرة للذكاء الاصطناعي في الإرهاب البيولوجي" للباحثة الدكتورة مروة صبحي، يثير انتشار تطبيقات الذكاء الاصطناعي في الهندسة البيولوجية خطراً، فقد تستخدمه جهات ذات نيات سيئة لإحداث تأثيرات مدمرة، كما تناولت الأدبيات أنّ نماذج اللغة الكبيرة مثل "تشات جي بي تي"، بالإضافة إلى أدوات التصميم البيولوجي المدعومة بالذكاء الاصطناعي، قد تزيد بشكل كبير من المخاطر المرتبطة بالأسلحة البيولوجية والإرهاب البيولوجي.
كيف يحدث ذلك؟
بحسب الدراسة؛ النماذج اللغوية الكبيرة قد تسهم بشكل خاص في زيادة إمكانية الوصول إلى الأسلحة البيولوجية. ففي تمرين حديث أقيم في معهد ماساتشوستس للتكنولوجيا، استغرق برنامج "تشات جي بي تي" ساعة واحدة فقط لإرشاد طلاب غير متخصصين في العلوم حول مسببات الأمراض الوبائية المحتملة، موضحاً الخيارات المتاحة لطرق اكتسابها من قبل أيّ شخص يفتقر إلى المهارات اللازمة لإنشائها في المختبر.
إضافة إلى ذلك، واجهت برامج الأسلحة البيولوجية السابقة تحديات بسبب نقص الأفراد المؤهلين. على سبيل المثال، كان رؤوف أحمد، الذي بدأ دراسته في مجال الميكروبات، قد قاد جهود تنظيم القاعدة في مجال الإرهاب البيولوجي، وفي 2001 استخدم خبرته العلمية لمحاولة الحصول على الجمرة الخبيثة، لكن تم القبض عليه في كانون الأول (ديسمبر) من العام نفسه، دون أن يُعرف مدى تقدم محاولاته، ومع تطور برامج الدردشة الآلية، قد تساعد هذه التقنيات عن غير قصد الأفراد ذوي النيات الخبيثة على تحسين مهاراتهم لإحداث الضرر.
وتوضح الدراسة أنّ عملية صنع مسببات الأمراض أو الأسلحة البيولوجية، لا يتطلب فقط المعرفة النظرية التي يمكن لمستخدم نماذج اللغة الكبيرة تقديمها، بل يحتاج أيضاً إلى معرفة ضمنية عملية.
وتؤكد أنّه من الصعب تحديد مدى تأثير هذا "الحاجز المعرفي الضمني" ومدى قدرة برامج مثل "تشات جي بي تي" على تقليصه؛ ومع ذلك هناك حقيقة واضحة: إذا استطاع المساعدون المدعومون بالذكاء الاصطناعي وبرامج الدردشة الآلية جعل عملية إنشاء وتعديل العوامل البيولوجية أكثر سهولة، فمن المحتمل أن يحاول المزيد من الأفراد القيام بذلك، وكلما زاد عدد المحاولات، زادت احتمالية نجاح البعض في النهاية.
إرهاب معزز بالذكاء الاصطناعي
تشير الباحثة إلى أنّه مع التقدم السريع في تقنيات الذكاء الاصطناعي، لم يعد الإرهاب البيولوجي والكيميائي مجرد تهديد نظري، بل أصبح احتمالاً متزايد الخطورة. إنّ توافر نماذج الذكاء الاصطناعي المتقدمة قد يفتح الباب أمام فاعلين غير حكوميين، بما في ذلك الجماعات الإرهابية، لاستغلال هذه التقنيات في تطوير أسلحة فتاكة بسهولة غير مسبوقة.
وتلفت إلى أنّه يمكن أن تصبح المواد العلمية التجريبية أدوات قوية في أيدي الجهات الخبيثة، حيث توفر وسيلة لنقل معلومات يصعب العثور عليها، لكنّها متاحة للجمهور بنقرة زر واحدة. وقد تؤدي هذه "الديمقراطية" في الوصول إلى المعرفة العلمية المتعلقة بتصنيع الأسلحة النووية والكيميائية والبيولوجية إلى تعزيز فعالية الأنشطة الإرهابية بشكل كبير، وهذا يسهل على الإرهابيين فهم الأبحاث العلمية بشكل أفضل، وربما استغلال الخبرات الفنية اللازمة.
بالإضافة إلى ذلك، يمكن أن تقلل المواد العلمية التجريبية من اعتماد الإرهابيين، خاصة الأفراد المنفردين منهم، على "الوسطاء" الذين ينقلون المعلومات، وعلى المجموعات عبر الإنترنت التي تنشر روابط للبرامج التعليمية أو المجلات التي تحتوي على تعليمات حول كيفية تصنيع العوامل الكيميائية والبيولوجية. كما يمكن أن تخلق فرص "افعل ذلك بنفسك" التي توفرها هذه المواد تحديات إضافية أمام أجهزة إنفاذ القانون في الكشف عن الأنشطة الإرهابية؛ ممّا يسهل على الإرهابيين اكتساب المعرفة العلمية ذات الاستخدام المزدوج.
تصميم جزيئات كيميائية خطرة
أصبحت نماذج اللغة الكيميائية أداة قوية لتوليد جزيئات ذات خصائص محددة، بما في ذلك المركبات السامة المستخدمة في تصنيع العوامل الكيميائية الخطرة. وأظهرت الأبحاث إمكانية توجيه هذه النماذج لتصميم نظائر لغاز الأعصاب VX، الذي استخدمته جماعات إرهابية مثل أوم شينريكيو عام 1994. ويثير هذا احتمال استغلال الجماعات الإرهابية لتلك النماذج لاكتساب المعرفة اللازمة لتطوير أسلحة كيميائية، ممّا يزيد من خطورة استخدامها في الهجمات المستقبلية.
الانتشار المحتمل لأدوات الذكاء الاصطناعي في المجالات البيولوجية يثير سؤالاً مهمّاً: من يجب أن يكون لديه الحق في الوصول إلى هذه القدرات؟ يجب على صناع السياسات النظر في وجهات نظر متنوعة عند اتخاذ قرارات تتعلق بالتحكم في هذه التقنيات، بما يشمل التوازن بين البحث العلمي، وإنفاذ القانون، ومنع إساءة الاستخدام.
مخاطر عدم كفاية التدابير التنظيمية
يكمن الخطر، وفق الباحثة، في أنّ الشركات التكنولوجية الرائدة قد لا تنفذ إجراءات رقابة صارمة، مثل فحص أوامر تخليق الحمض النووي أو مراقبة تدريب نماذج الذكاء الاصطناعي. كما أنّ المبادئ التوجيهية الحالية غير كافية، ممّا قد يضع مستقبل البشرية تحت رحمة عدد قليل من المختبرات التي تتبع أفضل الممارسات طوعياً، دون وجود لوائح واضحة تلزم الجميع بتطبيقها.
أدوات التصميم البيولوجي والتهديدات المستقبلية
تساهم أدوات الذكاء الاصطناعي المتخصصة في تعزيز قدرات التصميم البيولوجي، ممّا يساعد في تطوير الأدوية والعلاجات. إلا أنّ هذه القدرات قد تشكل أيضاً خطراً إذا استُخدمت لتصميم عوامل بيولوجية غير مسبوقة. وعلى عكس مسببات الأمراض الطبيعية التي تتطور ضمن قيود بيولوجية، فإنّ مسببات الأمراض المصممة قد تتجاوز هذه القيود، ممّا يتيح إنتاج فيروسات أشد فتكاً من أيّ شيء معروف حالياً.
علاوة على ذلك، قد تُستخدم هذه الأدوات لتصميم عوامل بيولوجية تستهدف مناطق جغرافية أو مجموعات سكانية معينة، ممّا يزيد من خطورة استخدامها لأغراض إرهابية. كما أنّ التدابير الحالية التي تهدف إلى الحد من انتشار مسببات الأمراض الخطيرة، مثل قوائم الحظر، قد تصبح غير فعالة أمام الأدوات التي تسمح بإنشاء عوامل جديدة غير معروفة سابقاً.
إمكانية انتشار الأدوات البيولوجية على نطاق واسع
في الوقت الحالي تظل أدوات التصميم البيولوجي في أيدي عدد محدود من الخبراء، ولكن مع تزايد كفاءتها قد تصبح متاحة لمجموعة أوسع من الأفراد، بمن فيهم من لديهم نوايا سيئة. وبالفعل يتم حالياً ربط نماذج الذكاء الاصطناعي بأدوات علمية متخصصة لأداء مهام معينة تلقائياً، ممّا قد يتيح وصولاً غير مقيد إلى إمكانيات خطيرة.
آليات الحد من المخاطر
في مواجهة المخاطر المتزايدة يُعدّ فحص تخليق الجينات الشامل خطوة أساسية لتعزيز الأمن البيولوجي. ورغم توصية الحكومة الأمريكية منذ عام 2010 بفحص طلبات تخليق المواد الجينية، فإنّ شركات عديدة ما تزال لا تنفذ هذه الإجراءات. وأظهرت تجربة أجريت في جامعة ماساتشوستس للتكنولوجيا أنّ نماذج الذكاء الاصطناعي، مثل ChatGPT، قادرة على تحديد الثغرات الأمنية التي يمكن استغلالها في سلسلة التوريد الخاصة بتخليق الجينات.
لذلك، هناك حاجة إلى تنظيم إلزامي لفحص منتجات الحمض النووي الاصطناعي، يشمل جميع أجهزة تخليق الجينات المنتشرة. ويجب أن يمتد الفحص ليشمل مقدمي الخدمات للآخرين الذين يلعبون دوراً حاسماً في تحويل التصاميم الرقمية إلى مواد بيولوجية فعلية.
حوكمة الذكاء الاصطناعي
إلى جانب الأمن البيولوجي هناك حاجة إلى استراتيجيات خاصة بالذكاء الاصطناعي لضمان عدم إساءة استخدام نماذج اللغة الكبيرة. ومن التحديات الرئيسية أنّ القدرات الخطرة لهذه النماذج قد لا تظهر إلا بعد إصدارها، ممّا يجعل من الضروري إجراء تقييمات مسبقة من قبل جهات مستقلة للتأكد من عدم احتوائها على إمكانيات خطيرة.
من يتحكم في القدرات البيولوجية المتقدمة؟
يثير الانتشار المحتمل لأدوات الذكاء الاصطناعي في المجالات البيولوجية سؤالاً مهمّاً: من يجب أن يكون لديه الحق في الوصول إلى هذه القدرات؟ يجب على صناع السياسات النظر في وجهات نظر متنوعة عند اتخاذ قرارات تتعلق بالتحكم في هذه التقنيات، بما يشمل التوازن بين البحث العلمي، وإنفاذ القانون، ومنع إساءة الاستخدام.
ومع التوسع المتسارع في تطبيقات الذكاء الاصطناعي في المجالات البيولوجية، يصبح من الضروري تطوير أنظمة حوكمة قوية لمواجهة المخاطر المحتملة. يجب اتخاذ تدابير صارمة للحد من إمكانية إساءة الاستخدام، مع ضمان الاستفادة من هذه التقنيات في تطوير علاجات وأدوية جديدة، فالتوازن بين الابتكار والأمن البيولوجي أصبح ضرورة ملحّة للحفاظ على مستقبل البشرية.