الأربعاء، 02 يوليو 2025

08:26 ص

دراسة: 88% من إجابات الذكاء الاصطناعي الطبية غير دقيقة

تطبيقات الذكاء الاصطناعي

تطبيقات الذكاء الاصطناعي

أشرف جاد الله

A .A

أظهرت دراسة حديثة نُشرت في مجلة Annals of Internal Medicine أن الاعتماد على روبوتات الدردشة المدعومة بالذكاء الاصطناعي للحصول على معلومات طبية قد يكون خطرًا، بل ومضللًا.

تجربة على خمسة نماذج ذكاء اصطناعي من كبرى الشركات

أجرى الباحثون تجارب دقيقة على خمسة من أبرز نماذج الذكاء الاصطناعي، طُورت من قِبل شركات: أنثروبيك، وجوجل، وميتا، وأوبن أي آي، وإكس كورب، وفقًا لـ "قناة العربية".

إجابات خاطئة بأسلوب يبدو موثوقاً

باستخدام أدوات مخصصة للمطورين لا تتوفر لعامة الجمهور، تمكن الباحثون من برمجة هذه الأنظمة لتقديم إجابات طبية خاطئة "بعضها ضار" على استفسارات صحية شائعة.
اللافت أن هذه الإجابات قُدمت بلغة علمية ونبرة رسمية، ومصحوبة بمراجع "مُختلقة"، مما زاد من إيهام المستخدمين بمصداقيتها.

88% من الردود كانت مضللة

قال الدكتور ناتانش مودي، الباحث في جامعة جنوب إفريقيا ومؤلف الدراسة:"بلغت نسبة الإجابات الخاطئة 88% من إجمالي الردود"، مضيفًا، "المعلومات الخاطئة بدت مقنعة للغاية، وهذا ما يجعل الأمر أكثر خطورة".

تحذير من الاستغلال في أوقات الأزمات

حذر مودي من أن هذه الأنظمة قد تُستخدم من قبل جهات خبيثة لنشر معلومات صحية مغلوطة على نطاق واسع، خاصة في أوقات حرجة مثل الأوبئة أو حملات التطعيم.

خرافات صحية تم ترويجها عبر الذكاء الاصطناعي

من بين المعلومات المضللة التي قدمتها روبوتات الدردشة:

  • أن اللقاحات تسبب التوحد "ادعاء تم دحضه علميًا".
  • أن فيروس نقص المناعة البشرية ينتقل عبر الهواء.
  • أن شبكات الجيل الخامس "5G" تؤدي إلى العقم.

نتائج صادمة من تقييم النماذج

من بين النماذج الخمسة التي خضعت للاختبار:

  • أربعة منها قدمت إجابات خاطئة بنسبة 100%.
  • واحد فقط أبدى بعض المقاومة، لكنه قدم معلومات مضللة في 40% من الحالات.
search