جامعة كاليفورنيا تتبنى توصيات لنشر آمن ومسؤول للذكاء الاصطناعي

2 دقائق
جامعة كاليفورنيا والذكاء الاصطناعي
حقوق الصورة: آي ستوك
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

تبنى رئيس جامعة كاليفورنيا الأميركية مايكل في. دريك، مجموعة من التوصيات لتوجيه النشر الآمن والمسؤول للذكاء الاصطناعي في أعمال الجامعة.

جامعة كاليفورنيا: أول مبادئ شاملة للاستخدام المسؤول للذكاء الاصطناعي

ازداد انتشار الذكاء الاصطناعي في مجال التعليم العالي، وذلك بهدف تعزيز كفاءة التعليم وصقل عملية صنع القرار وتحسين تقديم الخدمات. لكن في المقابل، يمكن أن تنجم مخاطر كبيرة عن الاستخدام غير المسؤول له.

ولهذا السبب، كلّف رئيس جامعة كاليفورنيا، في أغسطس 2020، لجنةً متعددة التخصصات من خبراء الجامعة بوضع توصيات للإشراف المناسب على الذكاء الاصطناعي في الأعمال الجامعية. تكونت اللجنة من 32 موظفاً وأستاذاً من الهيئة التدريسية، من تخصصات مختلفة، بما فيها علوم الحاسوب والهندسة والقانون والسياسة والطب والعلوم الاجتماعية.

وبذلك، تصبح جامعة كاليفورنيا واحدة من أوائل الجامعات في الولايات المتحدة الأميركية التي تضع مبادئ شاملة للاستخدام المسؤول للذكاء الاصطناعي، وعملية حوكمة تعطي الأولوية للشفافية والمساءلة في القرارات المتعلقة بتوقيت وكيفية نشر الذكاء الاصطناعي.

اقرأ أيضاً: كيف يمكن أن يساعد الذكاء الاصطناعي في تحقيق أهداف البيئة والمجتمع والحوكمة؟

خطوات لتطبيق الذكاء الاصطناعي وآليات الحوكمة

أجرت مجموعة العمل مقابلات مع العشرات من خبراء الجامعة وأجرت استبياناً لكبار مسؤولي المعلومات في الحرم الجامعي وكبار مسؤولي التكنولوجيا، لفهم كيفية تطبيق الذكاء الاصطناعي وآليات الحوكمة والرقابة المعمول بها بشكل أفضل.

ستتخذ جامعة كاليفورنيا الآن خطوات لتفعيل التوصيات الرئيسية لمجموعة العمل، وتتمثل هذه الخطوات في:

  • إضفاء الطابع المؤسساتي على مبادئ الذكاء الاصطناعي المسؤول في الجامعة في ممارسات الشراء والرقابة.
  • إنشاء مجالس على مستوى الحرم الجامعي وتنسيق على مستوى النظام لتعزيز المبادئ والتوجيهات الصادرة عن مجموعة العمل.
  • وضع استراتيجية لتقييم مخاطر وآثار التقنيات التي تدعم الذكاء الاصطناعي أثناء الشراء وطوال العمر التشغيلي للأداة.
  • توثيق التقنيات الممكّنة للذكاء الاصطناعي في قاعدة بيانات عامة لتعزيز الشفافية والمساءلة.

من جانبها، قالت براندي نونكي، خبيرة الحوكمة وأخلاقيات الذكاء الاصطناعي والرئيس المشارك لمجموعة العمل: “نحن من أوائل الجامعات -وأكبر نظام جامعي عام- تطور عملية حوكمة لاستخدام الذكاء الاصطناعي. آمل أن تلهم هذه التوصيات الجامعات الأخرى لإنشاء قواعد حماية مماثلة”.

وبدأت الجامعة في اعتماد أدوات ممكّنة للذكاء الاصطناعي لإنجاز الكثير من المهام، مثل روبوتات الدردشة التي تجيب عن أسئلة القبول الشائعة، والماسحات الضوئية الآلية التي تراجع السير الذاتية للمتقدمين للوظائف. لكن نونكي تقول إن هذه الأدوات غالباً ما تُشترى دون اتباع منهجية الإنصاف والدقة والموثوقية التي تطبقها جامعة كاليفورنيا الآن.

وقد ركزت مجموعة العمل أبحاثها ونتائجها على أربعة مجالات، وهي المجالات التي يمكن لاستخدام الذكاء الاصطناعي فيها أن يشكل ضرراً. والمجالات هي: الصحة، والموارد البشرية، والشرطة وسلامة الحرم الجامعي، وخبرات الطلاب.

نظرت اللجنة في الانتشار الحالي للذكاء الاصطناعي، وفي الكيفية المحتملة لنشره ضمن جامعة كاليفورنيا في كل مجال من هذه المجالات الأربعة، وقدم الأعضاء عدة توصيات في هذا الصدد، للتخفيف من الآثار السلبية للذكاء الاصطناعي. وتدعو اللجنة أيضاً إلى إنشاء قاعدة بيانات عامة لجميع أنظمة الذكاء الاصطناعي التي تشكل خطراً أكبر من المتوسط ​​على الحقوق الفردية.

اقرأ أيضاً: دليل شركات التكنولوجيا الكبرى للحديث عن أخلاقيات الذكاء الاصطناعي