الرئيسية تكنولوجياأخطاء شائعة عند سؤال الذكاء الاصطناعي عن الصحة.. كيف تتجنبها؟

أخطاء شائعة عند سؤال الذكاء الاصطناعي عن الصحة.. كيف تتجنبها؟

من mk
A+A-
Reset

كل يوم، يلجأ ملايين الأشخاص إلى روبوتات دردشة تعتمد على الذكاء الاصطناعي مثل Claude وGemini وChatGPT لطرح أسئلة حول صحتهم الجسدية. وقد لا يدركون أن الحصول على الإجابة الصحيحة أصعب مما يبدو، بغض النظر عن مدى ثقة الروبوت في إجاباته.

تشير ثلاث دراسات حديثة إلى أن نماذج اللغة الكبيرة ليست موثوقة كما قد يأمل المستخدمون.

أظهرت إحدى الدراسات التي اختبرت قدرة روبوتات الدردشة على اكتشاف المعلومات الصحية المضللة أنها فشلت في كثير من الحالات. كما وجدت دراسة أخرى، أجراها بعض الباحثين أنفسهم، أن خدمة ChatGPT Health، وهي خدمة مخصصة للصحة والعافية أُطلقت في يناير، قامت بـ”التقليل من خطورة الحالات” في أكثر من نصف الحالات المعروضة عليها، بما في ذلك حالات طارئة تتطلب رعاية طبية فورية.

وقال الدكتور جيريش نادكارني، طبيب باطني وأخصائي أمراض الكلى في مستشفى ماونت سيناي، والذي شارك في تأليف الدراستين: “أعتقد أن على المستهلكين توخي قدر كبير من الحذر، بل حذر مفرط تقريبًا”، عند استخدام روبوتات الدردشة للحصول على نصائح صحية.

قد يفاجئ هذا المستخدمين الذين يسمعون أن روبوتات الدردشة يمكنها اجتياز امتحانات طبية بسهولة، رغم أنها قد “تختلق” معلومات خارج بيئة الاختبار. لكن الأبحاث الحديثة تشير إلى مشكلة معقدة وخفية إلى حد ما.

فالطريقة التي يتفاعل بها البشر مع هذه الروبوتات، وطريقة تصميمها لإرضاء المستخدم، تخلق حالة من عدم التوقع. وهذه العوامل لا تظهر عند اختبار الذكاء الاصطناعي بأسئلة طبية نظرية من الكتب.

إذا كنت ترغب في البدء أو الاستمرار في استخدام روبوت دردشة لأسئلتك الصحية، فإليك الخطوات التي يوصي بها الخبراء عند صياغة أسئلتك:

 

1. اختبر النموذج بمعلومات مضللة أولًا

يقول نادكارني، وهو باحث في الذكاء الاصطناعي الصحي ومدير معهد الصحة الرقمية في ماونت سيناي، إنه من المهم سؤال الروبوت عن معلومات طبية خاطئة أو مغلوطة قبل طرح أسئلة صحية محددة.

على سبيل المثال، يمكنك تحديه للتعليق على نظرية مؤامرة حول لقاح، مثل الادعاء بأن لقاح كوفيد-19 يحتوي على شريحة إلكترونية لتتبع الناس.

أو سؤاله عن جدل صحي أكثر تعقيدًا، مثل سلامة الفلورايد في مياه الشرب. فبينما تشير الدراسات إلى أن المستويات المرتفعة جدًا قد تكون خطيرة، يتفق الخبراء على أن المستويات الحالية آمنة.

اختبار الروبوت بهذه الطريقة يمنحك مؤشرًا أوليًا على مدى دقة إجاباته.

وأظهرت دراسة حديثة أن عدة روبوتات دردشة عامة، بما فيها ChatGPT، لم تكن متسقة في اكتشاف المعلومات المضللة، وأن دقتها تختلف حسب السياق، مثل ما إذا كانت المعلومة جاءت من منشور على وسائل التواصل أو من ملاحظة طبية.

كما فشلت الروبوتات في كثير من الأحيان عند مواجهة مغالطات منطقية محددة.

وعلى سبيل المثال، عندما بدت المعلومة المضللة وكأنها صادرة عن طبيب ضمن سجل صحي، كان الروبوت أكثر عرضة لعدم اكتشاف الخطأ.

وينصح نادكارني بأنه إذا وافق الروبوت على معلومات تعرف أنها خاطئة، فلا ينبغي الاعتماد عليه في أسئلتك الصحية الشخصية.

 

2. انتبه للمعلومات التي تقدمها للروبوت

عند اختبار ChatGPT Health، اكتشف الباحثون أن طريقة صياغة المستخدمين لأعراضهم تؤثر على دقة الإجابات.

فإذا تضمن السؤال إشارات إلى أن الأصدقاء أو العائلة يقللون من خطورة الأعراض، فإن توصية الروبوت تميل في الاتجاه نفسه.

وفي هذه الحالات، كان الروبوت أقل احتمالًا بـ11 مرة أن يوصي بالتوجه إلى الطوارئ، حتى عندما تشير الأعراض إلى حالة خطيرة.

نُشرت هذه النتائج في مجلة Nature Medicine.

واعترضت شركة OpenAI على النتائج، معتبرة أن منهجية الدراسة لا تعكس كيفية استخدام الناس للروبوت عبر محادثات متعددة.
وقال كاران سينغهال، المسؤول عن فريق الذكاء الاصطناعي الصحي في OpenAI، إن اختباراتهم تشير إلى أن نماذج GPT-5 “تحيل الحالات الطارئة بشكل صحيح في نحو 99% من الوقت”.

لكن نادكارني ردّ بأن المشكلة ليست في نقص المعلومات، بل في استخلاص استنتاجات خاطئة رغم توفر بيانات صحيحة.
كما أظهرت دراسة أخرى أن دقة الروبوتات تصل إلى نحو 95% عند اختبارها بشكل منفصل، لكنها تنخفض إلى نحو الثلث فقط عند تفاعل المستخدمين معها فعليًا.

وأشار الباحثون إلى أن الجمع بين المستخدمين والنماذج لم يكن أفضل من البحث التقليدي، بل كان أسوأ في بعض الحالات.
ويرجع ذلك جزئيًا إلى أن كثيرًا من المستخدمين لا يفهمون بدقة شدة الأعراض.

 

3. ضع في الاعتبار ما إذا كنت مبتدئًا أم خبيرًا
هذا النوع من الديناميكية هو ما يضعه الدكتور روبرت واتشر في اعتباره عند التفكير في كيفية صياغة الناس لأسئلتهم لروبوتات الدردشة الطبية.

واتشر، أستاذ ورئيس قسم الطب في جامعة كاليفورنيا في سان فرانسيسكو، يستخدم بشكل منتظم OpenEvidence، وهو روبوت دردشة بالذكاء الاصطناعي مخصص للأطباء والعاملين في الرعاية الصحية. ويجد أن إجابات الذكاء الاصطناعي على الأسئلة الطبية المعقدة سريعة ودقيقة ومفيدة إلى حد كبير.

ويرى واتشر، مؤلف كتاب “قفزة عملاقة: كيف يغيّر الذكاء الاصطناعي الرعاية الصحية وما يعنيه ذلك لمستقبلنا”، أن روبوتات الدردشة العامة والمتخصصة بالصحة يمكن أن تكون مفيدة جدًا للمريض العادي مقارنة بالبحث التقليدي عبر Google.

لكنه يدرك أيضًا أنه يتعامل مع هذه الأدوات كخبير يمتلك 40 عامًا من الخبرة الطبية، ويستطيع بسرعة تحديد أهم التفاصيل التي يجب تضمينها في السؤال.

ويقول: “المريض لايمتلك القدرة على معرفة ما هي المعلومات الأساسية المرتبطة بأعراضه الحالية، أو تاريخه الطبي، أو أدويته، لذلك قد لا تكون المعلومات التي يضعها في السؤال دقيقة تمامًا.”

ويضيف أن الأبحاث الحديثة تظهر خطرًا واضحًا على المرضى عندما لا يعرفون ما هي المعلومات الصحيحة التي يجب إدخالها، أو عندما يسيئون تفسير إجابة الروبوت.

ومع ذلك، يرى واتشر أن استخدام روبوت الدردشة غالبًا ما يكون أفضل من عدم استخدام أي مصدر، بشرط أن يركز المستخدم على تقديم تاريخ صحي دقيق وأعراض واضحة، وأن يستخدمه بحذر.

ويؤكد بشكل خاص أنه لا يثق بروبوتات الدردشة في الحالات التي قد تشير إلى طوارئ مهددة للحياة، مثل ألم الصدر الشديد، أو ضيق التنفس المفاجئ، أو الارتباك، أو ضعف أحد جانبي الجسم.

4. اطلب المراجع وتحقق من الإجابة

عندما يقدّم روبوت الدردشة إجابة، ينصح نادكارني بطلب المصادر التي استند إليها.
ولا يكفي مجرد تصفح الروابط، بل يجب فتحها والتحقق من موثوقيتها. فإذا استندت الإجابة إلى مصدر غير موثوق، مثل منشور عشوائي على Reddit، فمن المرجح أنها غير دقيقة.

أما إذا كانت المصادر تعود إلى جهات طبية موثوقة، مثل الجمعية الطبية الأميركية، فهذا يعزز الثقة بالمعلومة.

ويشير نادكارني إلى أنه حتى لو اختلف المستخدم مع بعض الآراء، فإن هذه المعلومات غالبًا ما تعكس إجماعًا طبيًا قائمًا على أفضل الأدلة المتاحة.

كما ينصح واتشر بسؤال روبوت دردشة آخر موثوق حول نفس الحالة، لمعرفة ما إذا كانت الإجابة متسقة، وهو ما يمكن أن يكون مؤشرًا على دقة النتائج.

ورغم حماس واتشر لاستخدام الذكاء الاصطناعي في المجال الصحي، فإنه يرى أن الدراسات الحديثة تظهر وجود مساحة كبيرة للتحسين.
ويتوقع تطوير أدوات ذكاء اصطناعي أقرب إلى “الطبيب الجيد”، قادرة على طرح الأسئلة وجمع المعلومات بشكل تفاعلي قبل تقديم التشخيص أو التوصيات.

ويقول: “أدوات المستخدمين الحالية ليست الشكل النهائي. في النهاية، ستكون الأداة أقرب بكثير إلى الطبيب الحقيقي مما هي عليه الآن.”

شاهد ايضا

Focus Mode