هل تشكل تقنية التعرف على الوجوه خطراً على العامة؟ وهل يجب على الحكومات تنظيمها؟

2 دقائق
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

حقق الذكاء الاصطناعي قفزات كبيرة في السنوات الأخيرة، ولكن هذه القفزات بدأت تثير بعض التساؤلات والمخاوف الأخلاقية.

من أهم هذه المسائل قدرة التعلم الآلي على التعرف على وجوه الأشخاص في الصور والفيديو، وبدقة عالية. قد يسمح لك هذا بفك قفل هاتفك الذكي بابتسامة، ولكنه يعني أيضاً أن الحكومات والشركات الكبيرة فازت بأداة جديدة ذات قدرات هائلة في مجال المراقبة.

وهناك تقرير جديد من معهد إيه آي ناو (وهو معهد بحثي ذو نفوذ كبير ويقع في نيويورك) يشير إلى أن التعرف على الوجوه يمثل أكبر تحدٍّ للمجتمع وصانعي السياسات.

وقد نتجت السرعة الكبيرة في نمو تقنيات التعرف على الوجوه من التطور السريع لأحد أنواع التعلم الآلي، المعروف باسم التعلم العميق؛ حيث يعتمد التعلم العميق على التشابكات الكبيرة في الحسابات -يمكن أن نشبهها نوعاً ما ببنية الدماغ البشري وتوصيلاته- بهدف التعرف على الأنماط في البيانات، وهو قادر الآن على تنفيذ هذه العملية بدقة مذهلة.

ومن المهام التي يتميز التعلم العميق فيها: التعرف على الأجسام، أو وجوه الأشخاص، حتى في الصور والفيديو من النوعية السيئة، وقد سارعت الشركات إلى تبنِّي هذه الأدوات.

يدعو التقرير الحكومةَ الأميركية مثلاً لاتخاذ خطوات عامة لتحسين تنظيم هذه التقنية التي تتطور بشكل متسارع، خصوصاً في خضم جدل حاد حول تأثيرها على خصوصيتنا: “إن آثار أنظمة الذكاء الاصطناعي ونتائجها أصبحت أكثر انتشاراً من ذي قبل، ودون إخضاعها لما يناسبها من الحوكمة، أو الإشراف، أو أنظمة المحاسبة”.

ويقترح التقرير مثلاً توسيع صلاحيات الهيئات الحكومية الموجودة حالياً من أجل تنظيم مسائل الذكاء الاصطناعي، بما في ذلك استخدام التعرف على الوجوه: “تتمتع الكثير من المجالات (مثل الصحة والتعليم والعدالة الجنائية والرعاية الاجتماعية) بالتاريخ والهيكليات التنظيمية والأخطار الخاصة بها”.

كما يدعو التقرير إلى تشديد حماية المستهلك ضد الادعاءات المضللة فيما يتعلق بالذكاء الاصطناعي، كما يدعو الشركات إلى التخلي عن ادعاءات حماية أسرار العمل عندما توضع مسؤولية أنظمة الذكاء الاصطناعي على المحك (أي عند استخدام الخوارزميات لاتخاذ قرارات هامة مثلاً)، ويطلب منها أن تتحلى بالمزيد من المسؤولية في استخدام الذكاء الاصطناعي. وتقترح الوثيقة أيضاً أنه يجب تحذير العامة عند استخدام أنظمة التعرف على الوجوه لتتبعهم، وأنه يجب أن يكون لديهم الحق في رفض استخدام تقنية كهذه.

غير أن تطبيق هذه التوصيات قد لا يكون بهذه السهولة، فقد خرج الجني من القمقم، وبدأ تطبيق التعرف على الوجوه واستخدامه بشكل سريع للغاية؛ حيث إنه يستخدم لفتح قفل أحدث هواتف آيفون من آبل، وتمكين عمليات الدفع، في حين أن فيسبوك تمسح ملايين الصور يومياً للتعرف على مستخدمين محددين. وقد أعلنت شركة دلتا للطيران مؤخراً عن نظام جديد لتسجيل الدخول بمسح الوجه في مطار أتلانتا، كما تعمل الخدمة السرية الأميركية على تطوير نظام حماية يعتمد على التعرف على الوجوه من أجل البيت الأبيض، وفقاً لوثيقة من جامعة كاليفورنيا في لوس أنجلوس. يقول التقرير: “إن دور الذكاء الاصطناعي في أنظمة المراقبة الشاملة قد انتشر على نطاق واسع في الولايات المتحدة والصين وبلدان أخرى”.

وفي الواقع، فقد تم تطبيق التقنية على نطاق أكبر في الصين، وهو ما يتضمن في أغلب الأحيان التعاون ما بين شركات الذكاء الاصطناعي الخاصة والوكالات الحكومية. وقد قامت قوات الشرطة باستخدام الذكاء الاصطناعي للتعرف على المجرمين، وتشير الكثير من التقارير إلى استخدامه أيضاً لتتبع السكان.

وحتى إذا لم تكن الاستخدامات مريبة أخلاقياً، فإن هذه التقنية لا تخلو من المشاكل، فقد تبين مثلاً أن أنظمة التعرف على الوجوه تحمل بعض التحيز، وقد برهن باحثو الاتحاد الأميركي للحريات المدنية أن إحدى الأدوات المعروضة عبر برنامج أمازون كلاود تجنح نحو وصف الأشخاص المتحدِّرين من الأقليات على أنهم مجرمون بشكل خاطئ.

ويحذر التقرير أيضاً من تتبُّع العواطف في أنظمة مسح الوجوه وكشف الصوت، صحيح أن تتبع العواطف بهذه الطريقة ما زال تقنية غير مثبتة، ولكنه قيد الاستخدام بأساليب قد تؤدي إلى التمييز، مثل تتبع انتباه الطلاب. تقول كيت كراوفورد (وهي مؤسسة مشاركة في إيه آي ناو، وإحدى مؤلفي التقرير): “لقد حان الوقت لتنظيم تقنية التعرف على الوجوه والتعرف على العواطف؛ حيث إن ادعاء القدرة على رؤية الوضع الداخلي للناس ليس بالأمر العلمي أو الأخلاقي”.