كيف استطاع الذكاء الاصطناعي التنبؤ بالمعلومات المضللة قبل نشرها؟‎

2 دقائق
ذكاء اصطناعي يتنبأ بمعلومات مضللة
الصورة الأصلية: بيكساباي | تعديل: إم آي تي تكنولوجي ريفيو العربية
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

خوارزمية تتنبأ بإمكانية نشر المحتوى المضلل

طور باحثون من جامعة شيفيلد في بريطانيا خوارزمية ذكاء اصطناعي جديدة يمكنها التنبؤ بما إذا كان أحد مستخدمي موقع تويتر سينشر معلومات مضللة، حتى قبل أن يشرع فعلياً في ذلك.

واكتشفت دراسة أجراها فريق من الباحثين بالجامعة -بقيادة كلٍّ من طالب الدكتوراه ييدا مو والدكتور نيكوس ألتراس من قسم علوم الحاسب- وجودَ علاقة طردية بين استخدام التعبيرات الفظة ومشاركة المحتوى غير الموثوق به على مواقع التواصل الاجتماعي.

وذكرت الجامعة، في تقرير نشرته على موقعها الإلكتروني، أن الفريق طور طريقة للتنبؤ بدقة كبيرة بمدى احتمالية أن يشارك مستخدمي وسائل التواصل الاجتماعي المحتوى الذي تبثه المصادر الإخبارية غير الموثوقة.

وتشير الدراسة -التي نشرت نتائجها في دورية “بير جي” (PeerJ)- إلى أن إحدى أبرز الظواهر المنتشرة على منصات التواصل الاجتماعي هي ظاهرة توليد ونشر محتوى غير موثوق به (مثل المعلومات الملفقة أو المضللة أو العناوين المبالغ فيها أو العلم الزائف أو الدعاية)، بواسطة منافذ إخبارية معينة تعمل عادةً كمصادر للمعلومات المضللة.

نسبة دقة مرتفعة

ذكر الباحثون في مقدمة الدراسة أن من الملاحظ كون المعلومات المضللة تنتشر بشكل أسرع مقارنة بالمعلومات الموثوقة بين المستخدمين على وسائل التواصل الاجتماعي.

وأوضحت الجامعة أنهم حللوا أكثر من مليون تغريدة نشرها ما يقرب من 6,200 مستخدم على تويتر، من خلال تطوير وسائل جديدة لمعالجة اللغة الطبيعية. وأضافت أن جميع التغريدات التي تم إجراء الدراسة عليها كانت تغريدات عامة متاحة لأن يراها أي شخص على الموقع.

ثم صنف الفريق المستخدمين إلى فئتين: أولئك الذين نشروا أو أعادوا تغريد محتوى من مصادر أخبار غير موثوقة، والأشخاص الذين نشروا فقط أخباراً أنتجتها المصادر الموثوقة. وتم استخدام هذه البيانات لتدريب خوارزمية التعلم الآلي، التي تمكنت بالتنبؤ بدقة وصلت إلى 79.7% بما إذا كان المستخدم سيعيد نشر المحتوى من مصادر غير موثوقة في المستقبل.

وخلصت الدراسة إلى أن مستخدمي تويتر الذين شاركوا محتوى من مصادر غير موثوقة كانوا أكثر ميلاً إلى التغريد حول موضوعات تتعلق بالسياسة أو الدين، وغالباً ما ضمت التغريدات التي نشروها كلمات من قبيل “ليبرالي” و”حكومة” و”إعلام”، كما أنها كانت أكثر ارتباطاً بالسياسة في الشرق الأوسط والدين الإسلامي، إذ تضمنت كلمات من بينها “الإسلام” أو “إسرائيل” في كثير من الأحيان.

في المقابل، يشير الباحثون إلى أن مستخدمي تويتر الذين شاركوا محتويات المصادر الإخبارية الموثوقة كانوا غالباً ما يغردون عن حياتهم الشخصية، بما في ذلك وصف مشاعرهم وتفاعلاتهم مع الأصدقاء. وتنتشر في تغريدات هذه المجموعة من المستخدمين كلمات على غرار “الحالة المزاجية” و”أريد” و”سوف” و”متحمس” و”عيد ميلاد”.

مساعدة فيسبوك وتويتر على التأكد من الحقائق

أثبتت الدراسة أيضاً ارتفاع احتمالية استخدام المجموعة الأولى لغة غير مهذبة في التغريدات، وهو ما أرجعه الدكتور نيكوس ألتراس إلى وجود قدر كبير من العداء السياسي على الإنترنت.

وأشارت جامعة شيفيلد إلى أن نتائج هذه الدراسة يمكن أن تساعد الشركات التي تدير وسائل التواصل الاجتماعي، مثل تويتر وفيسبوك، على تطوير طرق لمكافحة انتشار المعلومات المضللة، كما أنها تساعد أيضاً علماء الاجتماع وعلماء النفس على تحسين فهمهم لسلوك المستخدمين على نطاق واسع.

واعتبر الباحث ييدا مو أن دراسة وتحليل سلوك المستخدمين الذين يشاركون المحتوى من مصادر إخبارية غير موثوقة يمكن أن يساعد منصات التواصل الاجتماعي على منع انتشار الأخبار الزائفة على مستوى المستخدم، على نحو مكمل لعملية التدقيق في الحقائق التي تستخدمها الشركات حالياً، والتي تستهدف موثوقية المنشور أو مصدر الخبر نفسه.