Article image
نظام روبوتي تم تطويره في المختبر الحربي لسلاح مشاة البحرية.
مصدر الصورة: الجيش الأميركي
Article image نظام روبوتي تم تطويره في المختبر الحربي لسلاح مشاة البحرية.
مصدر الصورة: الجيش الأميركي

الذكاء الاصطناعي

يقول مؤلف كتاب جديد عن الأسلحة ذاتية التحكم إن العلماء الذين يعملون في مجال الذكاء الاصطناعي في حاجة إلى بذل المزيد من الجهود لمنع استخدام التكنولوجيا في مجال التسليح.

وقَّع أكثر من 2,400 باحث في مجال الذكاء الاصطناعي على تعهد بعدم تصنيع ما يسمى بالأسلحة ذاتية التحكم؛ وهي أنظمة تقرِّر مَن ستقتله من تلقاء نفسها، ويأتي ذلك بعد قرار جوجل بعدم تجديد أحد عقود تزويد البنتاجون بالذكاء الاصطناعي لتحليل اللقطات التي تصوِّرها الطائرات المسيرة، وذلك إثر تعرض الشركة للضغط من قِبل العديد من الموظفين المعارضين لعملها في مشروع يعرف باسم مافن Maven.

ويعتقد بول شار (مؤلف كتاب جديد بعنوان “جيش بلا بشر: الأسلحة ذاتية التحكم ومستقبل الحروب”) أن على باحثي الذكاء الاصطناعي القيام بما هو أكثر من الانسحاب إذا ما أرادوا إحداث التغيير.

بول شار.
مصدر الصورة: وين ماكنامي/ جيتي إميجز

يرى شار -الجندي الأميركي الذي خدم في العراق وأفغانستان، وهو الآن أحد كبار الباحثين في مركز الأمن الأميركي الجديد- أن على خبراء الذكاء الاصطناعي أن يتعاونوا مع صناع السياسة والمحترفين العسكريين من أجل تفسير القلق الذي يساور الباحثين، ومساعدتهم في إدراك أوجه القصور لدى أنظمة الذكاء الاصطناعي.

وقد تحدث شار إلى ويل نايت (رئيس تحرير مجلة إم آي تي تكنولوجي ريفيو) عن أفضل طريقة لوقف سباق التسلح الخطير المحتمل في مجال الذكاء الاصطناعي.

 


مصدر الصورة: paulscharre.com

س: ما مدى حرص الجيش الأميركي على تطوير أسلحة الذكاء الاصطناعي؟

صرح قادة وزارة الدفاع الأميركية مراراً وتكراراً بأنهم يعتزمون إبقاء العنصر البشري مطلعاً على ما يجري ومسؤولاً عن قرارات استخدام القوة الفتاكة، ولكن الأمر الذي يجب التنبُّه إليه هو اعترافهم أيضاً بأنه إذا صنَّعت الدول الأخرى أسلحة ذاتية التحكم، فقد يضطرون إلى أن يحذوا حذوها، وهذا هو الخطر الحقيقي، فإذا تجاوزت إحدى الدول هذا الحد فإن الدول الأخرى ستشعر أنها مجبرة على الرد بالمثل؛ من أجل الحفاظ على قدرتها التنافسية.

س: ولكن هل يمكن الوثوق في هذه الوعود حقاً؟

أعتقد أن كبار مسؤولي وزارة الدفاع الأميركية صادقون؛ وذلك لأنهم يريدون للبشر أن يظلوا مسؤولين عن استخدام القوة الفتاكة، ومن المؤكد أن المحترفين العسكريين لا يرغبون في أن تعيث أسلحتهم في الأرض فساداً.

وتظل القضية المفتوحة -مع كل هذا- هي كيفية تحويل مفهوم واسع مثل المسؤولية البشرية عن استخدام القوة الفتاكة إلى توجيهات هندسية محددة حول أنواع الأسلحة المسموح بها؛ حيث إن تعريف ماهية “السلاح ذاتي التحكم” يعد موضع خلاف أساساً، مما يرجح وجود وجهات نظر مختلفة حول كيفية تطبيق هذه المبادئ.

س: لماذا هناك حاجة إلى إشراك مختصي التكنولوجيا؟

يجب إشراك باحثي الذكاء الاصطناعي في هذه المحادثات؛ لأن خبرتهم التقنية لها أهمية بالغة في رسم خيارات السياسة العامة، وعلينا أن ننظر بعين الاعتبار إلى المخاوف المتعلقة بالذكاء الاصطناعي مثل التحيز، والشفافية، وقابلية التفسير، والأمان… وغيرها من المخاوف؛ حيث إن تكنولوجيا الذكاء الاصطناعي تمتلك اليوم هذه المزايا المزدوجة، فهي تتمتع بقدرات عالية، ولكن لديها أيضاً العديد من نقاط الضعف، بشكل مشابه جداً لحالة الأجهزة الحاسوبية ومخاطر الفضاء الإلكتروني، ويبدو -لسوء الحظ- أن الحكومات قد فهمت الجزء الأول من الرسالة (الذكاء الاصطناعي لديه قدرات عالية)، ولكنها أغفلت الجزء الآخر منها (مصحوب بالمخاطر).

ويمكن لباحثي الذكاء الاصطناعي أن يساعدوا الحكومات والجيوش في فهم مخاوفهم الكبيرة بشكل أفضل بشأن عواقب تسخير هذه التكنولوجيا لأغراض التسليح، وينبغي على باحثي الذكاء الاصطناعي -للدفاع عن هذه القضية بشكل مُجْدٍ- أن يكونوا جزءاً من الحوار البناء.

ما رأيك في الميثاق الأخير الذي نظمه معهد مستقبل الحياة ضد الأسلحة ذاتية التحكم؟

إنها ليست أول دعوة للعمل من قِبل علماء الذكاء الاصطناعي؛ بل إنها تستند إلى رسائل سابقة مفتوحة عن الأسلحة ذاتية القيادة في العامين 2015 و2017، ولكن هذه الرسائل ليست إلا بادرة رمزية، وتبقى فعاليتها ذات آثار متناقصة بمرور الزمن.

كما أن الدول تناقش مسألة الأسلحة ذاتية التحكم في الأمم المتحدة منذ العام 2014، ويضيف الضغط الذي يمارسه علماء الذكاء الاصطناعي بُعداً هاماً إلى المحادثات الجارية، ولكنه لم يؤثر بعد على القوى العسكرية العظمى لكي تدعم فرض حظرٍ شامل، وإذا حضر اجتماعات الأمم المتحدة المزيدُ من باحثي الذكاء الاصطناعي فسيُحدث هذا تأثيراً أكبر، وسيساعد صناعَ السياسات على فهم دواعي القلق الشديد الذي يساور علماء الذكاء الاصطناعي.

س: ماذا عن قرار جوجل بعدم تجديد عقدها مع البنتاجون؟

كان الأمر مفاجئاً بعض الشيء؛ وذلك لأن مشروع “مافن” لم يتضمن في الحقيقة أسلحةً ذاتية التحكم أو -تحديداً- ذاتي التحكم للأهداف، ويبدو أنه متوافق مع مبادئ الذكاء الاصطناعي التي أصدرتها جوجل مؤخراً، ولكن المنافسة على أفضل الكفاءات المتخصصة في الذكاء الاصطناعي شرسة، وأظن أن جوجل لم تقدر على المخاطرة بأن يُقدِم عددٌ من أفضل مهندسيها على الاستقالة احتجاجاً على المشروع.

س: هل تعتقد أن مثل هذه المبادرات سيساعد على إبطاء تطور الأسلحة ذاتية التحكم؟

عندما يتعلق الأمر بمشروع مافن، فإن جوجل لم تكن مشاركة أصلاً في تصنيع الأسلحة التي يتحكم فيها البشر، فضلاً عن الأسلحة ذاتية التحكم؛ ولذلك لا توجد علاقة مباشرة في هذه الحالة.

ورسالة الميثاق تستهدف بالطبع الأسلحة ذاتية التحكم، ولكني لا أعتقد في أنه سيكون لأحد هذه المبادرات تأثيرٌ كبير على الكيفية التي ستقوم بها القوات المسلحة بإدماج الذكاء الاصطناعي والتحكم الذاتي في أسلحتها؛ إذ من المرجح أن يتم تصنيع الأسلحة من قِبل المقاولين المتعاقدين مع وزارة الدفاع.

وإذا قررت كبرى شركات التكنولوجيا -أي: جوجل- عدمَ التعاون مع القوات المسلحة، فإن ذلك قد يبطئ من إدماج تكنولوجيا الذكاء الاصطناعي في العمليات الحيوية الداعمة مثل تحليل البيانات، وهو الأمر الذي كان مشروع مافن يتمحور حوله، ولكن ستتدخل في نهاية المطاف شركات أخرى لسدِّ الحاجة الناشئة، وقد رأينا بالفعل شركات أخرى تُعرب بشكل علني وصريح عن رغبتها في العمل مع الجيش.

س: هل سيترتب على هذه الجهود عواقب لم تكن في الحسبان أيضاً؟

إن وصف العديد من الاستخدامات المشروعة للذكاء الاصطناعي على أنها غير مقبولة قد يوسِّع الفجوة بين المجتمع التقني ودوائر صنع السياسات، ويجعل الحوار العقلاني أكثر صعوبة.

ولا شك في أن على المهندسين أن يمتنعوا عن العمل في مشاريع لا يمكنهم دعمها، ولكن عندما تتحول هذه الدوافع الشخصية إلى ضغط يُمارَس على الآخرين -لكي يحجموا عن العمل على تطبيقات هامة ومشروعة لصالح الأمن القومي- فإنها تضرُّ بالسلامة العامة، وتؤثر على حقوق المهندسين الآخرين في فعل ما تُملِيه عليهم ضمائرهم.

وسيتعين على الدول الديموقراطية استخدام تكنولوجيا الذكاء الاصطناعي في مجموعة متنوعة من أغراض الأمن القومي الهامة والمشروعة؛ مثل الاستخبارات، ومكافحة الإرهاب، والأمن الحدودي، والأمن السيبراني، والدفاع.

س: هل دخلت الولايات المتحدة في سباق تسلُّحٍ مع الصين في مجال الأسلحة المزودة بالذكاء الاصطناعي؟

صرَّحت الصين علانية عن عزمها على قيادة المساعي العالمية في مجال الذكاء الاصطناعي بحلول العام 2030، وهي تعمل على تعزيز أبحاثها وتوظيف أفضل الكفاءات والمواهب المتخصصة من كافة أنحاء العالم.

كما أن النموذج الصيني عن الاندماج بين القطاعين العسكري والمدني يوضِّح فكرة تتلخص في أن أبحاث الذكاء الاصطناعي سوف تتدفق بسهولة من الشركات التكنولوجية إلى الجيش، دون وجود نوع من الحواجز التي يسعى بعض موظفي جوجل إلى إقامتها في الولايات المتحدة، وقد بدأت الصين بالفعل في إرساء الأسس اللازمة لقيام دولة تطبِّق الرقابة التكنولوجية المعززة بالذكاء الاصطناعي.

وإذا اقتصر نجاح أساليب باحثي الذكاء الاصطناعي على إبطاء وتيرة الاعتماد على أدوات الذكاء الاصطناعي في المجتمعات الديموقراطية المنفتحة التي تقدِّر السلوك الأخلاقي، فإن عملهم هذا قد يُسهم في إحلال مستقبل نشهد فيه وقوعَ أقوى الحلول التكنولوجية في أيدي الأنظمة التي تعد الأخلاقيات وسيادة القانون آخر اهتماماتها.

س: تشير في كتابك إلى أن تعريف التحكم الذاتي قد يكون أمراً صعباً، ألن يتسبب هذا في تعقيد النقاش الدائر حول الاستخدامات العسكرية للذكاء الاصطناعي؟

على الرغم من أن مؤلفي الميثاق الأخير ضد الأسلحة ذاتية التحكم يعترضون على قدرتها على قتل البشر، إلا أنهم يعترفون أيضاً بأن بعض أنواع المنظومات ذاتية التحكم ستكون ضرورية للتصدي لأسلحة أخرى من هذا القبيل.

إنها تلك المنطقة الرمادية التي نحتاج فيها إلى التحكم الذاتي من أجل التصدي للأسلحة المعادية بالرغم من وجود عنصر بشري يستخدم السلاح، كما في حالة استهداف طائرة نفاثة مقاتلة أو حتى غواصة، حيث يكمن التحدي الحقيقي في مثل هذه المواجهات، وإن الموازنة بين الأهداف المتضاربة ليست سهلة، وسيواجه صناع السياسات خيارات حقيقية عندما يعتمدون هذه التكنولوجيا.

وسيكون لمهندسي الذكاء الاصطناعي الأثر الأكبر في تحديد هذه الخيارات إذا شاركوا في حوار بناء ومستمر مع صناع السياسات، بدلاً من أن يُؤْثروا الانسحاب، وسيكون باحثو الذكاء الاصطناعي (الذين يهتمون بكيفية استخدام التكنولوجيا) أكثر فعالية إذا ما تجاوزوا حملات الضغط، وبدأوا في المساعدة في تعليم صناع السياسات حول تكنولوجيا الذكاء الاصطناعي اليوم، وأوجهَ القصور التي تعاني منها.

المزيد من المقالات حول الذكاء الاصطناعي

  1. Article image
  2. Article image
  3. Article image
error: Content is protected !!