Article image
المطرقة: ديفيد، الهاتف: أندريويدودو، الموزة: بن دافيس.
مصدر الصورة: موقع الإنترنت thenounproject.com
Article image المطرقة: ديفيد، الهاتف: أندريويدودو، الموزة: بن دافيس.
مصدر الصورة: موقع الإنترنت thenounproject.com

الآلات الذكية

حتى أفضل برامج الذكاء الاصطناعي ما زالت ترتكب أخطاءً ساذجة، ولذا تطلق "داربا" منافَسةً لمعالجة الثغرات الأكثر وضوحاً في هذا المجال.

أينما يتم استخدام الذكاء الاصطناعي، فستجده قد فشل بطريقة فكاهية، ولنأخذ على سبيل المثال الأخطاء الغريبة التي ترتكبها خوارزميات الترجمة التي تخلط بين المعاني المختلفة.

ولكن مع استخدام الذكاء الاصطناعي في مواقف ذات طبيعة أكثر حساسية -كقيادة السيارات ذاتية التحكم، أو إجراء التشخيص الطبي، أو استخلاص الاستنتاجات التي تفصل بين الحياة والموت من المعلومات الاستقصائية- فإن هذه الإخفاقات لا تكون مدعاةً للضحك على الإطلاق. وهذا ما يدعو داربا (وكالة مشاريع البحوث المتطورة الدفاعية) -الذراع البحثية للجيش الأميركي- إلى معالجة الثغرة الأساسية التي يعاني منها الذكاء الاصطناعي، وهي أنه يفتقر إلى وجود أي نوع من الإدراك السليم.

يقول أورن إتزيوني (المدير التنفيذي لمعهد آلن للذكاء الاصطناعي، وهي مؤسسة بحثية غير ربحية مقرها في سياتل تقوم باستكشاف حدود التكنولوجيا): “يُعدُّ الإدراك السليم مشكلة خطيرة عند الذكاء الاصطناعي، وهي مشكلة يصعب وصفها بعض الشيء، ولكنك تلحظ آثارها على كل شيء”.

وسيُجري برنامج الإدراك السليم الآلي (MCS) الجديد التابع لداربا مسابقةً تطلب من خوارزميات الذكاء الاصطناعي أن تفهم أسئلة مثل السؤال التالي:

تقوم طالبة بوضع نبتتين متطابقتين في مقدارين من التراب متماثلين من حيث النوع والكمية، وترويهما بنفس الكمية من الماء، ثم تضع إحدى هاتين النبتتين بالقرب من إحدى النوافذ وتضع الأخرى في غرفة مظلمة، إذن فإن النبتة التي وُضعت بالقرب من النافذة سوف تنتج كميةً أكبر من:

(A) الأكسجين              (B) ثنائي أكسيد الكربون                        (C) الماء

 

إن البرنامج الحاسوبي في حاجة إلى أن يفهم بعض الشيء عن عملية التركيب الضوئي لكي يتمكن من معالجة السؤال، ومن البديهي أن تزويد الآلات بالكثير من الأسئلة السابقة لن يحل هذه المشكلة بطريقة موثوقة.

وسوف تركز مؤشرات الأداء هذه على اللغة؛ وذلك لأن باستطاعتها أن تدفع الآلات إلى ارتكاب الأخطاء بكل سهولة، ولأنها تجعل الاختبارات واضحة نسبياً، حيث يقول إتزيوني إن الأسئلة توفر طريقة لقياس مستوى الاقتراب من إدراك البديهيات، الذي سيكون أمراً حاسماً.

وتنشغل شركات التكنولوجيا اليوم في تسويق تقنيات التعلم الآلي التي تتمتع بقدرات عالية، ولكنها تعاني من قصور جوهري؛ فالتعلم العميق -على سبيل المثال- يتيح إمكانية تمييز الكلمات التي يتضمنها الكلام أو الأشياء التي تتضمنها الصور، وغالباً ما يتم ذلك بدقة مذهلة، ولكن الأسلوب المتَّبَع يعتمد عادة على تزويد شبكة عصبونية كبيرة بكميات كبيرة من البيانات المصنفة، التي تكون إما إشارات أولية صوتية أو البيكسلات في الصور، ويمكن للنظام أن يتعلم التعرف على الأنماط المهمة، ولكنه قد يرتكب الأخطاء بسهولة لأنه لا يمتلك تصوراً عن العالم الأوسع نطاقاً.

وفي المقابل نجد أن الأطفال الرُّضَّع عند البشر سرعان ما يطورون فهماً حدسياً للعالم يشكِّل أساساً للذكاء لديهم، ومع ذلك ليس هناك أدنى فكرة عن كيفية إيجاد حل لمشكلة الإدراك العام السليم.

وإن المحاولات السابقة لمساعدة الآلات في إدراك العالم قد تركزت على بناء قواعد بيانات معرفية كبيرة بجهود بشرية، وهذه المهمة غير عملية ولا نهاية لها أساساً، والمثال الأكثر شهرة عن مثل هذه الجهود هو مشروع “سايك Cyc” الذي مضى عليه عقود منذ انطلاقه.

هذه المشكلة قد يتضح لنا أنها على جانب عظيم من الأهمية، فالافتقار إلى الإدراك السليم -على كل حال- يكون كارثياً في بعض المواقف الحرجة، وقد يعيق تقدم الذكاء الاصطناعي في نهاية المطاف، وتمتلك داربا تاريخاً يحفل بالاستثمار في الأبحاث الأساسية في مجال الذكاء الاصطناعي، فقد ساعدت المشاريع السابقة في إنتاج السيارات ذاتية القيادة التي نراها اليوم، بالإضافة إلى أشهر مساعد شخصي يعمل بالصوت، وهو: سيري.

يقول ديف جانينغ (مدير أحد البرامج في داربا) في بيان صدر في صبيحة يوم 11 أكتوبر: “إن غياب الإدراك السليم يمنع الأنظمة الذكية من فهم العالم من حولها، والتواصل مع الناس بشكل طبيعي، والتصرف بحكمة في الحالات غير المتوقعة، والتعلم من التجارب الجديدة”.

ويضيف أخيراً: “ربما يكون هذا الغياب هو العائق الأكثر أهمية الذي يحول بين ما لدينا اليوم من تطبيقات للذكاء الاصطناعي مركِّزة على مجالات ضيقة، وما نرغب في ابتكاره مستقبلاً من تطبيقات للذكاء الاصطناعي أكثر عمومية”.

المزيد من المقالات حول الآلات الذكية

  1. Article image
  2. Article image
  3. Article image
error: Content is protected !!