الذكاء الاصطناعي: هل سيكون أخطر من القنبلة النووية؟

الذكاء الاصطناعي: هل سيكون أخطر من القنبلة النووية؟

الذكاء الاصطناعي: هل سيكون أخطر من القنبلة النووية؟


04/05/2023

يبدو أنّ التحذير من مخاطر الذكاء الاصطناعي -المتوقعة من أجيال أذكى قادمة- مهم إلى درجة دفعت بالأب الروحي لهذه التطبيقات الذكية (جيفري هينتون) إلى الاستقالة من منصبه في شركة غوغل. وسبق لغوغل أن فصلت مهندساً قال إنّ نظاماً للذكاء الاصطناعي أصبح واعياً. بالطبع، لا يهول هينتون وغيره من مخاطر الذكاء الاصطناعي رغبة منهم في وقف تطويره. وهي تحذيرات ستعمل على تصحيح المسار إن كانت هناك نوايا سيئة يخطط لها الأشرار.

المخاطر المتحققة والمحتملة

يعمل الذكاء الاصطناعي حالياً كأداة للتضليل، ويشكّل خطراً على الوظائف، وهناك احتمال استخدامه لأغراض مؤذية. يقول يوشوا بنجيو، الباحث في جامعة مونتريال: "قدرتنا ضعيفة على فهم ما قد يقع من خطأ في الأنظمة الاصطناعية الذكية جداً، ولذلك ينبغي الحذر".

يتركز قلق هينتون من أنّ الإنترنت سيُغمَر بسيل من الصور ومقاطع الفيديو والنصوص المزيفة، ولن يكون بمقدور الشخص العادي معرفة ما هو صحيح بعد الآن. ويشير هينتون هنا إلى إمكانيات الشخص العادي، ولا ينفي إمكانية التعرف على الحقيقي من الزائف لدى الجهات المختصة. وهذا برأيي سيعزز من المصداقية بقدر ما سينشر الزيف، وستكون النتيجة في صالح الاعتماد على مصادر موثوقة.

لا يمكن لهذه التقنيات حتى الآن القيام بعمل المحامين أو المحاسبين أو الأطباء، لكن يمكنها أن تحل محل المساعدين القانونيين والمساعدين الشخصيين والمترجمين...، وغيرهم ممّن يتعاملون مع المهام عن ظهر قلب.

 التحذير من مخاطر الذكاء الاصطناعي مهم لدرجة دفعت (جيفري هينتون) إلى الاستقالة من منصبه في شركة غوغل

قدّرت ورقة بحثية أنّ 80% من القوة العاملة في الولايات المتحدة يمكن أن تتأثر بنسبة 10% على الأقل، وأنّ 19% من العمال يرون أنّ 50% على الأقل من مهامهم قد تأثرت. وقال أورين إيتزيوني، الرئيس التنفيذي المؤسس لمعهد ألين للذكاء الاصطناعي: "هناك مؤشر على أنّ الوظائف عن ظهر قلب ستختفي". كما حذّرت مجموعة في معهد (مستقبل الحياة)، وهي منظمة مكرسة لاستكشاف المخاطر الوجودية على البشرية، من احتمال تسبب الذكاء الاصطناعي بمشاكل غير متوقعة؛ فهذه الأنظمة غالباً ما تتعلم من خلال الكميات الهائلة من البيانات التي تحللها، ومن قدرتها على كتابة أكواد الكمبيوتر الخاص بها وتشغيلها، وقد ينتج عن ذلك أخطاء خطيرة. هينتون يخشى يوماً تصبح فيه الأسلحة التي تتحكم بنفسها ذاتياً- الروبوتات القاتلة- حقيقة واقعية. لكن مثل هذا السيناريو ممكن الحدوث فقط في حالة غياب الحكومات، كما يرى أنتوني أغيري عالم الكونيات النظري والفيزيائي في جامعة كاليفورنيا.

يقارن هينتون الذكاء الاصطناعي بسباق الأسلحة النووية، ففي مجال الذكاء الاصطناعي ما من طريقة لمعرفة ما إذا كانت الشركات أو الدول تعمل على التكنولوجيا في الخفاء. المخاطر التي يحذّر منها هينتون تلقى الاعتراض من قبل خبراء آخرين، بما في ذلك العديد من طلابه وزملائه، وبحسب هؤلاء فإنّ هذه المخاطر مبنية على افتراضات.

جيفري هينتون وأوبنهايمر

في عام 1972، وهو طالب دراسات عليا في جامعة إدنبرة، تبنّى هينتون فكرة تُسمّى الشبكة العصبية، وهي نظام رياضي يتعلم المهارات من خلال تحليل البيانات. في ذلك الوقت كان عدد قليل من الباحثين يؤمن بالفكرة. في الثمانينيات عمل هينتون أستاذاً لعلوم الكمبيوتر في جامعة كارنيجي ميلون، لكنّه ترك الجامعة واتجه إلى كندا. في ذلك الوقت كانت معظم أبحاث الذكاء الاصطناعي تموّل في الولايات المتحدة من قبل وزارة الدفاع. وهينتون يعارض بشدة استخدام الذكاء الاصطناعي في ساحة المعركة، ما يسمّيه "جنود الروبوت".

في عام 2012 ابتكر هينتون، مع (2) من طلابه الخريجين في جامعة تورنتو، تقنية أصبحت الأساس الفكري لأنظمة الذكاء الاصطناعي. ابتكر الـ (3) شبكة عصبية يمكنها تحليل آلاف الصور وتعليم نفسها تحديد الأشياء الشائعة، مثل الزهور والكلاب والسيارات، وأدى نظامهم إلى تطوير روبوتات الدردشة الجديدة مثل ChatGPT و Google Bard. وقد حصل هينتون وطلابه على جائزة تورينج، التي يطلق عليها غالباً "جائزة نوبل للحوسبة"، تقديراً لعملهم على الشبكات العصبية.

أنفقت شركة غوغل (44) مليون دولار للاستحواذ على شركة بدأها هينتون ومساعداه

أنفقت شركة غوغل (44) مليون دولار للاستحواذ على شركة بدأها هينتون ومساعداه. وفي الوقت نفسه تقريباً بدأت غوغل و OpenAI وشركات أخرى في بناء شبكات عصبية تعلمت من كميات هائلة من النصوص الرقمية. اعتقد هينتون أنّها طريقة قوية للآلات لفهم اللغة وتوليدها، لكنّها كانت أدنى من الطريقة التي يتعامل بها البشر مع اللغة. وفي العام الماضي عندما قامت الشركتان ببناء أنظمة تستخدم كميات أكبر من البيانات، تغيرت وجهة نظر هينتون. كان ما يزال يعتقد أنّ الأنظمة أدنى من الدماغ البشري من بعض النواحي، لكنّه اعتقد أنّها تتفوق على الذكاء البشري في جوانب أخرى.

في مقالة على موقع صحيفة "نيويورك تايمز" الأمريكية، قال هينتون: إنّ "جزءاً منّي نادم" على المساهمة في تطوير هذه التكنولوجيا. وأضاف: "كنت أعزّي نفسي بالعذر الشائع: إذا لم أفعل ذلك، فسيفعله شخص آخر". يذكّرنا هذا بندم مبتكر القنبلة الذرية، مع الفارق. ندم هينتون مرتبط بما قد تؤدي إليه تطبيقات الذكاء الاصطناعي. في مقابلة مع قناة (BBC)، قال: "هذه البرامج ليست أكثر ذكاء منّا حالياً، لكنّني أعتقد أنّها قد تكون كذلك قريباً". يتحدث هينتون هنا عن احتمال، ويُقر بأنّ الإنسان من حيث التفكير يبقى متقدماً، لكنّه يحذّر من سيناريو يقوم فيه السيئون بمنح الروبوتات القدرة على وضع أهداف خاصة بها خلال الحرب. لكن هل ستكون الآلة أقسى على الإنسان من الإنسان؟ وهل ستزيد أخطاء الضربات التي تقوم بها الروبوتات عن الأخطاء المقصودة وغير المقصودة التي يقوم بها البشر؟

اعتاد الناس أن يسألوه: كيف يمكنك العمل على التكنولوجيا التي يحتمل أن تكون خطرة؟ يجيب هينتون بإعادة صياغة عبارة روبرت أوبنهايمر، الذي قاد جهود الولايات المتحدة لصناعة القنبلة الذرية: "عندما ترى شيئاً جميلاً من الناحية التقنية، فإنك تمضي قُدماً وتنفذه، ولا تجادل حول ما ينبغي فعله إلّا بعد أن تكون قد أنجزت نجاحك التقني. هكذا كان الأمر مع القنبلة النووية". لكنّ أوبنهايمر، بحسب هينتون: "لم يعد يقول ذلك"، في إشارة إلى أنّ الفأس قد وقع على الرأس.

يختم هينتون تصريحاته بأمل يتمثل في تعاون كبار العلماء في العالم على طُرق التحكم في التكنولوجيا. وقال: "لا أعتقد أنّ عليهم المضي في هذه التكنولوجيا إلى أن يفهموا ما إذا كان بإمكانهم التحكم فيها".

سلاح ذو حدين

يعتقد قادة الصناعة أنّ أنظمة الذكاء الاصطناعي الجديدة تشبه أهمية إدخال متصفح الويب في أوائل التسعينيات، ويمكن أن تساهم في العديد من الأبحاث. من خلال تحديد الأنماط، تتعلم هذه البرمجيات إنشاء نص بمفردها، بما في ذلك منشورات المدونات والقصائد وبرامج الكمبيوتر. يمكنها أيضاً إجراء محادثة ومساعدة مبرمجي الكمبيوتر والكتّاب والعاملين الآخرين في توليد الأفكار والقيام بالأشياء بسرعة أكبر. في المقابل يمكن أن تولد معلومات غير صادقة ومتحيزة وغير ذلك من المواد السامة. أنظمة مثل GPT-4 تخطئ في الحقائق والمعلومات، وهي ظاهرة تُسمّى بـ "الهلوسة". وتعمل الشركات على حلّ هذه المشاكل، لكنّ الخبراء مثل الدكتور بنجيو قلقون من احتمال مخاطر جديدة.

يعتقد قادة الصناعة أنّ أنظمة الذكاء الاصطناعي الجديدة تشبه أهمية إدخال متصفح الويب في أوائل التسعينيات

من الصعب فصل الحقيقة عن الخيال عند استخدام هذه الأنظمة. وقال الدكتور بينجيو: "لدينا الآن أنظمة يمكنها التفاعل معنا من خلال اللغة الطبيعية، ولا يمكننا التمييز بين الحقيقي والمزيف". يشعر الخبراء بالقلق من إساءة استعمال هذه الأنظمة والاعتماد عليها للحصول على المشورة الطبية والدعم العاطفي واتخاذ القرارات. وقال سوباراو كامبامباتي، أستاذ علوم الكمبيوتر في جامعة ولاية أريزونا: "ليس هناك ما يضمن أنّ هذه الأنظمة ستكون صحيحة في أيّ مهمة تكلفها بها"، هذا يعني أنّ الذكاء الاصطناعي لن ينهي الحاجة إلى رقابة الموظف البشري.

بعد إصدار شركة OpenAI الناشئة نسخة جديدة من ChatGPT في آذار (مارس)، وقّع أكثر من (1000) من قادة التكنولوجيا والباحثين خطاباً مفتوحاً يدعو إلى وقف تطوير أنظمتها لمدة (6) أشهر حتى يتمكنوا من فهم المخاطر الكامنة وراء التكنولوجيا بشكل أفضل. وبعد أيام أصدر (19) من القادة الحاليين والسابقين لجمعية النهوض بالذكاء الاصطناعي، وهي جمعية أكاديمية عمرها (40) عاماً، خطاباً خاصاً يُحذّرون فيه من مخاطر الذكاء الاصطناعي. جاء في الخطاب: "يجب تطوير أنظمة ذكاء اصطناعي قوية عندما نكون واثقين من أنّ آثارها ستكون إيجابية، وأنّ مخاطرها يمكن التحكم فيها". ضمت تلك المجموعة أكثر من (27 ) ألف توقيع، من بينهم إريك هورفيتز- كبير المسؤولين العلميين في شركة مايكروسوفت، التي نشرت تقنية OpenAI عبر مجموعة واسعة من المنتجات- وماسك الذي يقوم ببناء ذكاء اصطناعي خاص به، وهو أحد المانحين الأساسيين للمنظمة التي كتبت الرسالة!

ما يهم في هذا الشأن هو بيان كبير علماء شركة غوغل، جيف دين، قال فيه: "نحن ما نزال ملتزمين بنهج مسؤول تجاه الذكاء الاصطناعي، نحن نتعلم باستمرار لفهم المخاطر الناشئة مع الاستمرار في الابتكار بجرأة أيضاً".

يردّ هينتون على هذه الجزئية بقوله: حتى العام الماضي، كانت غوغل حريصة على عدم إطلاق شيء قد يسبب ضرراً. لكنّ تعزيز مايكروسوفت محرك بحث بينج باستخدام برنامج تشاتبوت يمثل تحدياً للأعمال الأساسية لشركة جوجل، ويدفعها لنشر النوع نفسه من التكنولوجيا. أضاف: إنّ عمالقة التكنولوجيا يخوضون منافسة قد يكون من المستحيل إيقافها.

الإنسان والروبوت

الحديث عن مخاطر الذكاء الاصطناعي لا يشبه الحديث عن حوادث السيارات التي لا يمكن لعاقل وقف صناعتها بسبب كثرة حوادثها. وبالمناسبة: هل ستكون حوادث سيارة تسلا الذكية وغيرها من السيارات الشبيهة أقل أم أكثر من السيارات التي يقودها بشر؟

هل ستكون حوادث سيارة تسلا الذكية وغيرها من السيارات الشبيهة أقل أم أكثر من السيارات التي يقودها بشر؟

ثمّة فارق جوهري بين البشر والروبوت يتمثل في العاطفة والحدس، أو الروح، وهو فارق ناتج عن اختلاف نظامنا البيولوجي عن نظام الآلة الرقمي. هذا الفارق سيعمل لصالح تفوق موهبة الإنسان في المجالات الإبداعية، لكنّ غياب الروح والعاطفة في الروبوت قد يعمل لصالح الإنسان أيضاً؛ فالقرارات في مجال الحرب، على سبيل المثال، سيتخذها الروبوت وهو فارغ من أيّ عاطفة، سيتخذها بناء على المصلحة فقط. لكن ألا يفعل البشر المثل؟ هل منعت عاطفة الإنسان وعقله الحروب؟ لا أظن أنّ الذكاء الاصطناعي سيكون أخطر من أسلحة الدمار الشامل التي يكدسها البشر، ويستمرون في تطوير المزيد منها. الهوى وغريزة البقاء والصراع على مصادر الطاقة والغذاء والأسواق العالمية هي أشياء لا قيمة لها عند الروبوتات، وحتى إذا ما اتخذت هذه الآلات قراراً، فسيكون الإنسان هو من يضغط على الزر أو يلقي بالأمر حرفياً أو برمجياً.

*المعلومات الواردة في هذه المادة هي حصيلة ترجمة بتصرف لمادتين نشرهما كايد ميتز في (نيويورك تايمز) و(ذا إنديان إكسبريس).

مواضيع ذات صلة:

الذكاء الاصطناعي.. الدماغ لن يعود حكراً على الإنسان

(6) تنبؤات جديدة... الذكاء الاصطناعي ونوستراداموس يصدمان العالم

الذكاء الاصطناعي والخوارزميات وتطور التطرف عبر الإنترنت



انشر مقالك

لإرسال مقال للنشر في حفريات اضغط هنا سياسة استقبال المساهمات

آخر الأخبار

الصفحة الرئيسية