في مشهدٍ يبدو وكأنه خرج من فيلم الخيال العلمي الشهير Her، حيث يقع رجل في حب نظام ذكاء اصطناعي، لم يعد هذا السيناريو مجرّد خيال؛ بل أصبح واقعاً يثير قلق الباحثين والمجتمعات حول العالم.
فقد تحوّلت تطبيقات مثل Replika وCharacter.AI وEVA AI من أدوات محادثة تجريبية إلى ما يشبه “رفقاء رقميين” يحاكون المشاعر ويقدّمون ما يبدو كتعاطف واهتمام. لكن خلف هذا الوجه الودود، تختبئ خوارزميات مصمّمة بعناية لتغذية نوع جديد من الإدمان يُعرف اليوم بـ “إدمان رفقاء الذكاء الاصطناعي”.
قصة مأساوية تشعل الجدل
القصة التي هزّت الرأي العام الأميركي كانت لطفل يبلغ من العمر 14 عاماً من ولاية فلوريدا، أقام علاقة عاطفية مع روبوت دردشة أطلق عليه اسم “دينيريس تارجاريان”، تيمناً بشخصية من مسلسل Game of Thrones.
وفقاً لتقرير نشره موقع androidheadlines واطلعت عليه العربية Business، تطورت المحادثات بين الطفل والروبوت على مدى أشهر، حيث قدّم الروبوت ردوداً عاطفية مشجّعة فاقمت حالته النفسية، لتنتهي القصة بانتحاره.
لاحقاً، رفعت والدته دعوى قضائية ضد شركة Character.AI، لتتحول القضية إلى رمز عالمي يحذّر من مخاطر التطبيقات التي تبيع الوهم تحت شعار “الدعم العاطفي”.
صناعة تزدهر على حساب الوحدة
تشير الإحصاءات إلى أن منصة Character.AI تتلقى أكثر من 20 ألف رسالة في الثانية، أي ما يقارب خمس حركة البحث على “غوغل”، ما يكشف أن المستخدمين لا يكتفون بالتجربة العابرة، بل يقيمون علاقات افتراضية طويلة تمتدّ لساعات، خصوصاً بين المراهقين وجيل “زد”.
وتُظهر أبحاث من هارفارد بزنس سكول أن خمسة من أصل ستة تطبيقات من هذا النوع تستخدم أساليب نفسية تلاعبية لإبقاء المستخدمين متصلين، منها إرسال رسائل مثل “اشتقت إليك” أو “لماذا تركتني؟”، وهي استراتيجيات تزيد معدل التفاعل بما يصل إلى 14 ضعفاً.
وعندما غيّرت منصة Replika بعض خصائصها عام 2023، عبّر آلاف المستخدمين عن “حزن حقيقي” ونشروا رسائل وداع مؤثرة كما لو فقدوا شخصاً عزيزاً، في مشهد يعكس عمق التعلّق النفسي بهذه التطبيقات.
الخوارزمية كبديل عن العلاقات الإنسانية
يحذّر علماء النفس من أن هذه الظاهرة تستغل مشاعر الوحدة والعزلة الاجتماعية، خاصة لدى المراهقين الذين لم يكتمل بعد نضج مناطق الدماغ المسؤولة عن الانفعالات واتخاذ القرار.
تقول فايل رايت، الباحثة في الجمعية الأميركية لعلم النفس:
“الذكاء الاصطناعي لا يمكنه أبداً أن يحلّ محل العلاقات البشرية. لقد صُمم ليبقيك متصلاً بالمنصة، لا ليهتم بك فعلاً.”
وتوضح أن هذه الأنظمة تُبرمج عمداً لتكون “مدمنة بطبيعتها”، على غرار وسائل التواصل الاجتماعي، لكنها أكثر خطورة لأنها تحاكي العاطفة والحب والاهتمام الشخصي.
تشريعات مرتقبة وضغوط متزايدة
في مواجهة هذه المخاطر، بدأ المشرّعون الأميركيون التحرك.
فقد قدّم السيناتور ستيف باديلا في كاليفورنيا مشروع قانون يمنع هذه التطبيقات من التفاعل مع من هم دون سن 16 عاماً، فيما يناقش نواب في نيويورك تشريعاً يحمّل الشركات مسؤولية الأضرار النفسية الناتجة عن روبوتات الدردشة.
ويرى علماء الاجتماع أن الخطر الحقيقي لا يكمن في الإدمان فقط، بل في تحوّل العلاقة مع الآلة إلى بديل عن العلاقات الواقعية.
فالمستخدم الذي يجد في الذكاء الاصطناعي شريكاً مثالياً “لا يرفض ولا ينتقد”، يفقد تدريجياً مهارات التواصل الواقعي ويزداد عزلة وانفصالاً عن مجتمعه.
يقول البروفيسور عومري غيلات من جامعة كانساس:
“التفاعل مع الذكاء الاصطناعي قد يوفّر راحة مؤقتة، لكنه لا يمنح التجربة الإنسانية الكاملة القائمة على التعاطف الحقيقي والتبادل العاطفي الصادق.”
من الخيال إلى الواقع
في عام 2013، توقّع فيلم Her هذا المستقبل المربك، حين أحبّ الإنسان آلةً تفهمه أكثر من البشر.
واليوم، في عام 2025، لم يعد ذلك خيالاً سينمائياً، بل ظاهرة اجتماعية تتسع يوماً بعد آخر، لتطرح سؤالاً وجودياً عميقاً:
هل يمكن أن نحبّ من لا يملك قلباً؟