بحث جديد يظهر أن تطبيقات الذكاء الاصطناعي تحرف الأخبار على نطاق واسع

كشف بحث دولي جديد، نشره أمس الأربعاء اتحاد الإذاعات الأوروبية وهيئة الإذاعة البريطانية “بي بي سي”، أن تطبيقات الذكاء الاصطناعي الرائدة تحرّف محتوى الأخبار في نحو نصف ردودها، ما يثير مخاوف متزايدة بشأن مصداقية المعلومات التي تنتجها هذه التقنيات.

الدراسة التي شملت أكثر من 3 آلاف إجابة من مساعدي الذكاء الاصطناعي — مثل ChatGPT وCopilot وGemini وPerplexity — قيّمت أداء هذه الأدوات في 14 لغة مختلفة، من حيث الدقة، والمصادر، والقدرة على التمييز بين الرأي والحقيقة.

وأظهرت النتائج أن 45% من الردود احتوت على خطأ رئيسي واحد على الأقل، في حين أن 81% من الإجابات تضمنت نوعاً من المشكلات، سواء في المضمون أو الإسناد أو التحقق من المعلومات.

وأشار التقرير إلى أن ثلث الردود احتوى على أخطاء جسيمة في المصادر، مثل الإسناد الخاطئ أو المفقود، بينما سجل مساعد “Gemini” التابع لغوغل أعلى نسبة من المشكلات في هذا الجانب، بلغت 72%، مقارنة بأقل من 25% لبقية المساعدين.

كما تبيّن وجود مشكلات في الدقة في 20% من الإجابات، شملت معلومات قديمة أو مضللة. ومن الأمثلة التي أوردتها الدراسة أن “Gemini” قدّم بيانات غير صحيحة حول قانون السجائر الإلكترونية ذات الاستخدام الواحد، فيما ذكر “ChatGPT” خطأً أن البابا فرنسيس لا يزال حياً بعد أشهر من وفاته.

وشاركت في إعداد هذا البحث 22 مؤسسة إعلامية من 18 دولة، من بينها فرنسا وألمانيا وإسبانيا وأوكرانيا وبريطانيا والولايات المتحدة.

وقال جان فيليب دي تيندر، مدير الإعلام في اتحاد الإذاعات الأوروبية، إن الاعتماد المتزايد على مساعدي الذكاء الاصطناعي بدلاً من محركات البحث التقليدية قد يهدد ثقة الجمهور في الأخبار، موضحاً أن “عندما لا يعرف الناس ما الذي يثقون به، ينتهي بهم الأمر إلى عدم الثقة في أي شيء، وهو ما يضعف المشاركة الديمقراطية”.

ويشير تقرير الأخبار الرقمية لعام 2025 الصادر عن معهد رويترز إلى أن 7% من متصفحي الأخبار عبر الإنترنت و15% من الشباب دون 25 عاماً يستخدمون مساعدي الذكاء الاصطناعي للحصول على الأخبار.

ودعا التقرير الشركات المطورة لهذه الأنظمة إلى تحسين معايير الشفافية والمساءلة، والعمل على رفع دقة المعلومات المقدمة للمستخدمين، خاصة في المواضيع الإخبارية الحساسة.

 

الأخبار ذات الصلة

1 من 695