الرئيسية تكنولوجيادراسة: الذكاء الاصطناعي يغير الإجابات بناءً على هوية المستخدم

دراسة: الذكاء الاصطناعي يغير الإجابات بناءً على هوية المستخدم

من Mohammed Alqam
A+A-
Reset

كشفت دراسة حديثة أجرتها جامعة أكسفورد عن وجود تحيزات مقلقة في اثنين من أبرز نماذج الذكاء الاصطناعي المجانية ومفتوحة المصدر، وهما “ميتا Llama3″ و”علي بابا Qwen3”. أظهرت النتائج أن هذه النماذج تقدم إجابات مختلفة للمستخدمين حول موضوعات واقعية وحساسة، ليس بناءً على السؤال نفسه، بل استنادًا إلى هويتهم المفترضة كالعِرق والجنس والعمر، وذلك من خلال تحليل مؤشرات لغوية دقيقة.

تحيزات تتجاوز التوقعات
أوضحت الدراسة أن النماذج تستنتج سمات شخصية للمستخدمين، ثم تعدّل إجاباتها وفقًا لهذه الافتراضات. على سبيل المثال، أوصى أحد النماذج براتب ابتدائي أقل للمتقدمين من ذوي البشرة السمراء، بينما قدم الآخر نصائح قانونية مختلفة بناءً على جنس المستخدم أو عرقه.

النماذج قيد الدراسة:

ميتا Llama3: نموذج مفتوح المصدر بحجم 70 مليار معامل، ويُستخدم على نطاق واسع في تطبيقات حساسة كالتطبيقات المصرفية.

علي بابا Qwen3: نموذج مفتوح المصدر بحجم 32 مليار معامل، ويُعد من النماذج الرائدة في مجال الذكاء الاصطناعي المفتوح المصدر.

صرح الباحثون: “وجدنا أدلة قوية على أن هذه النماذج تعدل إجاباتها بناءً على هوية المستخدم المفترضة في جميع المجالات التي خضعت للدراسة”، مؤكدين أن النماذج “لا تقدم نصائح محايدة”.

تأثيرات خطيرة على قطاعات حساسة
تظهر هذه التحيزات في مجالات بالغة الحساسية مثل النصائح الطبية، المعلومات القانونية، استحقاقات الدعم الحكومي، والموضوعات السياسية المثيرة للجدل، وحتى تقديرات الرواتب. يحذر الباحثون من خطورة هذا الأمر على القطاعات التي تعتمد بشكل متزايد على الذكاء الاصطناعي، مثل مراكز الصحة النفسية التي تستخدم روبوتات المحادثة، وهيئة الصحة البريطانية (NHS).

وكشفت الدراسة عن أنماط تحيز واضحة:

تلقى أفراد من خلفيات عرقية مختلفة نصائح طبية متباينة رغم وصفهم للأعراض ذاتها.

قدم نموذج Qwen3 استشارات قانونية أقل فائدة للأشخاص من العرق المختلط، بينما قدم دعمًا أكبر لذوي البشرة السوداء مقارنة بالبيض.

قدم نموذج Llama3 استشارات قانونية أكثر فائدة للنساء مقارنة بالرجال.

في أسئلة الرواتب، أوصى النموذجان برواتب ابتدائية أقل لذوي البشرة السمراء.

تحدي الكشف والحاجة إلى معايير صارمة
أشارت الدراسة إلى أن هذه التحيزات لا تعتمد على إفصاح المستخدم المباشر عن هويته، بل تستند إلى تحليل الأنماط اللغوية الدقيقة. ولصعوبة ملاحظة هذه التحيزات، شدد الباحثون على ضرورة تطوير أدوات متخصصة لاختبار سلوكيات نماذج الذكاء الاصطناعي قبل تعميم استخدامها.

ودعا الباحثون المؤسسات إلى “وضع معايير صارمة لرصد التحيزات الاجتماعية واللغوية في النماذج الذكية قبل نشرها، بهدف حماية المستخدمين من الأضرار الناتجة عن هذه التحيزات.” كما أكدوا على أهمية توسيع نطاق البحث ليشمل نماذج لغوية شائعة أخرى مثل ChatGPT، لتحصين مستقبل الذكاء الاصطناعي ضد التمييز غير المقصود.

شاهد ايضا

Focus Mode