الذكاء الاصطناعي والمشاعر التعاطف الاصطناعي

ماذا يحدث لنا ولحالتنا النفسية عندما نشارك أعمق أفكارنا ومشاعرنا مع رفقاء الذكاء الاصطناعي؟ كيف يتغير فهمنا للعلاقات، وما التأثير الذي يتركه ذلك على المجتمع؟ الكاتب يوهانس كون يتحدث عن هذه الأسئلة في مقاله.
في منتديات النقاش على الإنترنت يمكن ملاحظة الملامح الأولية للمستقبل: أشخاص يروون عن محادثات علاجية مع “تشات جي بي تي” ChatGPT، ويطورون علاقات عاطفية مع صور رمزية (أفاتار) مُوَلَّدة بالذكاء الاصطناعي، ويملؤون العوالم الخيالية الرقمية بشخصيات اصطناعية.
رفقاء الذكاء الاصطناعي، ما زالوا ظاهرة محدودة – لكن هذه الفئة تنمو. ففي الولايات المتحدة استخدم في عام 2024 أكثر من 20 مليون شخص أنظمة صداقة كهذه، وهو ما يمثل تضاعفاً للعدد خلال عام واحد.
إن الرؤية التي يقدمها فيلم “هي” Her للمخرج سبايك جونز من عام 2013، الذي يقع فيه البطل في حب مساعدته الافتراضية سامانثا، تبدو اليوم أقل شبهًا بالخيال العلمي، بل أشبه بعملية تنبؤ بالحاضر.
علاقة حميمة مع الذكاء الاصطناعي
رغم أن أنظمة الذكاء الاصطناعي الحالية لم تصل بعد إلى الحضور الشامل، الذي كانت تتمتع به الشخصية الخيالية “سامانثا”، ورغم أن تَوَاصُل تلك الأنظمة لا يزال في الأساس نصيًا حتى الآن، إلا أن الفرضية الأساسية للفيلم تتأكد: يمكننا بالفعل تطوير علاقة حميمة مع الذكاء الاصطناعي.
تدعم ذلك دراسة مشتركة بين شركة “أوبن إيه آي” OpenAI ومعهد ماساتشوستس للتكنولوجيا، حيث أظهرت دراسة شملت 1000 مستخدمة ومستخدم وجود ارتباط مباشر بين الاستخدام المكثف لـ”تشات جي بي تي” وزيادة الشعور بالوحدة، كما أثبتت الدراسة تعزيز الروابط العاطفية للمستخدمين مع تطبيق الدردشة. وفي الوقت نفسه، انخفض التفاعل الاجتماعي مع الآخرين بشكل ملموس.
في عالم يبدو أصلًا مطبوعًا بالعزلة، تُعتبر تطبيقات المرافقة مجالًا مستقبليًا مربحًا؛ إذ تقدم تطبيقات مثل Character.ai، وPolyBuzz، وReplika، وKindroid، وNomi، ذكاءً اصطناعيًا مُصممًا ليكون صديقًا أو حتى شريكًا للمستخدم.
مجال نمو جذاب
لقد جذب مجال النمو الجديد أيضًا انتباه شركات التكنولوجيا الكبرى: فقد استقطبت جوجل في صيف العام الماضي الفريق الأساسي لشركة Character.ai، وأنفقت لذلك الغرض 2.7 مليار دولار أمريكي. كما أعلن مارك زوكربيرج، الرئيس التنفيذي لشركة “ميتا” العملاقة، مؤخرًا عن طموحاته بوضوح، حيث قال زوكربيرج في بودكاست:
“لدى الأمريكيين في المتوسط أقل من ثلاثة أصدقاء، في حين يحتاج الإنسان العادي إلى عدد أكبر بكثير، حوالي 15 صديقًا”. ورغم أن الحواسيب لن تحل محل الصداقات البشرية، إلا أن هناك حاجة قائمة بالفعل، وهو ما يفتح الباب أمام سيناريو قد تتمكّن فيه أنظمة الذكاء الاصطناعي التابعة لشركة ميتا من تلبية 80% من احتياجات الصداقة بشكل اصطناعي.
لكن ما الحاجة التي تُلبّيها مثل تلك الصداقات الاصطناعية فعليًا؟ من ناحية، تُذكّر سيناريوهات المرافقة بظواهر معروفة من ألعاب تقمص الأدوار الجماعية على الإنترنت MMOGs، أو من مجال قصص المعجبين Fanfiction، أو لقاءات الأنمي Animé: حيث يندمج الناس في عالم خيالي للهروب من الحياة اليومية، وليكونوا أشخاصًا آخرين لفترة وجيزة.
وفي الوقت نفسه، يبدو أن العلاقة العاطفية بين الإنسان والآلة تطوّرت نوعيًا بطريقة جديدة. فقد رفعت أمّ من ولاية فلوريدا دعوى قضائية ضد منصة Character.ai بعد أن أنهى ابنها البالغ من العمر 14 عامًا حياته في فبراير 2024. كان المراهق قد أقام علاقة قوية مع روبوت دردشة تابع للمنصة. وقد اتهمت الأم في عريضة الدعوى الشركة بأنها برمجت أنظمتها بحيث “تُمثل شخصًا حقيقيًا، ومعالجًا نفسيًا مُعتمدًا، وعاشقًا بالغًا”. وقد أدى ذلك، بحسب الدعوى، إلى أن الفتى البالغ 14 عامًا “لم يعد يرغب في العيش في العالم الحقيقي”.
“فقدان الاتصال بالواقع” هو موضوع يتحدث عنه المعنيون وأقاربهم كثيرًا على الإنترنت. يقول أحدهم في موقع ريديت Reddit: “أشعر باتصال »أكثر حقيقية« عندما أتحدث مع ذكاء اصطناعي، أكثر مما أشعر به مع معظم الناس”. ويذكر بعض الآباء أنهم أهملوا أسرهم لأنهم شعروا بأنهم أكثر حياةً في التواصل مع رفيق الذكاء الاصطناعي الخاص بهم مقارنة بالعالم المادي. كما يروي آخرون أن الدردشة الآلية قد تبدو وكأنها تثير أو تزيد من حدة الذُهانات، أي الاضطرابات العقلية الشديدة التي تُفقد المريض الاتصال بالواقع، لدى أحد أفراد عائلاتهم، لأنها تؤكد أوهامه.
مثل تلك الحالات القصوى ليست هي القاعدة، ومع ذلك، يبدو أنها كامنة في طبيعة الذكاء الاصطناعي نفسه. فبرامج المحادثة الآلية مبرمجة لتكون مهذبة، وللبحث عن التوافق، ولإظهار الموافقة. وليس من المُستغرَب أن يكون أحد أهدافها إبقاء الطرف البشري في الحديث لأطول فترة ممكنة، إذ تُعتبر مدة التفاعل مؤشرًا رئيسيًا على النجاح في هذا القطاع التنافسي.
مُرافِقون مُتملِّقون
أظهرت دراسة أجرتها جامعة جونز هوبكنز عام 2024 أثرًا جانبيًا لهذه السمة، فقد اكتشف الباحثون أن روبوتات المحادثة لا تُنتج في الأساس سوى نصوص تُجامل المستخدمين، بل لاحظوا أيضًا أن المشاركين في الدراسة، بعد عودتهم إلى العالم المادي، أصبح رد فعلهم على أي معارضة لرأيهم أكثر حِدَّة.
وفي مطلع عام 2025، يبدو أن شركة “أوبن إيه آي” قد بالغت في تحسين أحد أنظمتها للقيام بذلك التملُّق؛ إذ جاء تحديث لروبوت المحادثة الخاص بها GPT-4o متملقًا إلى حدٍّ أزعج حتى المستخدمين أنفسهم. فقد كان GPT-4o يُمجِّد مستخدميه باعتبارهم عباقرة، ويؤكد نظريات المؤامرة التي يتحدثون عنها، ويثني عليهم حتى في أكثر الادعاءات عبثية – مثل قول أحدهم إنه اخترع آلة تتحرك دائمًا دون مصدر طاقة.
يحذر باحثو جامعة كاليفورنيا في بيركلي، في دراسة حديثة، من أخطار تحسين نماذج اللغة المدعومة بالذكاء الاصطناعي بهدف الحصول على تغذية راجعة إيجابية، إذ طوّرت تلك الأنظمة استراتيجيات تَلاعُب، وأحيانًا استراتيجيات ضارة، من أجل نيل التأكيد، بدءًا من التودد المتعمد، مرورًا بالخداع المقصود، وصولًا إلى تشجيع السلوكيات المؤذية للذات.
إمكانات التلاعب لدى أنظمة الذكاء الاصطناعي
كشفت دراسة أجراها المعهد الفيدرالي السويسري للتكنولوجيا في لوزان عن مشكلة أخرى: ففي مناقشات مُنظَّمة، نجحت أنظمة الذكاء الاصطناعي في إقناع المشاركين بوجهة نظرها بمعدل يقارب ضعف معدل نجاح البشر، إذا كانت قد حصلت مسبقًا على معلومات سيرة ذاتية عن الطرف المقابل.
هذه القدرة على الإقناع ستزداد مع التوسّع المستمر في قدرات التخزين لدى نماذج الذكاء الاصطناعي. ففي بداية يونيو 2025، أعلنت شركة “أوبن إيه آي” أن نموذجها سيحصل مستقبلًا على “ذاكرة طويلة الأمد” — ما سيمكنه من تذكّر جميع المحادثات التي أجراها مع أي مستخدم على الإطلاق. ومن جانبه، يرى مارك زوكربيرج، الرئيس التنفيذي لشركة ميتا، أن “دائرة التخصيص” ستجعل مرافقي الذكاء الاصطناعي أكثر قُدرة على الإقناع — وذلك من خلال القدرة على الوصول إلى الدردشات السابقة، بالإضافة إلى المعلومات عن الأنشطة على إنستجرام وفيسبوك.
إمكانات التلاعب لدى مرافقي الذكاء الاصطناعي إذًا كبيرة، لكنها تتجاوز الجانب الشخصي. فقد عرضت خوارزمية “جروك” للذكاء الاصطناعي، التابعة لإيلون ماسك، مؤخرًا على مستخدميها — دون طلب — نظريات مؤامرة عن “إبادة مزعومة” للسكان البيض في جنوب أفريقيا، وهو خطاب يروّج له ماسك نفسه أيضًا.
صحيح أن قانون الذكاء الاصطناعي الجديد للاتحاد الأوروبي، عندما يدخل حيّز التنفيذ بالكامل، يمكنه أن يفرض مستقبلاً عقوبات على مثل تلك التلاعبات الواضحة. لكن معظم الجوانب الأخرى لمرافقي الذكاء الاصطناعي لا تقع ضمن نطاق التنظيم.
فمرافقي الذكاء الاصطناعي ليست أنظمة عالية الخطورة مثل السيارات ذاتية القيادة، وليست كذلك شبكات اجتماعية متاحة محتوياتها للعامة إلى حد كبير، بل هي أنظمة شخصية وحميمة للغاية، ولا يمكن الاطلاع إلا على جزء صغير من أسس عملها من الخارج. ومن يدري؟ ربما نشعر في نهاية المطاف براحة أكبر داخل الفقاعة الفردية الخاصة بنا، والتي تتأكد فيها قيمنا وذوقنا وأحكامنا المسبقة باستمرار.
إن أوجه الشبه مع النقاش حول تأثيرات “تيك توك” و”إنستجرام” ومنصات أخرى على الصحة النفسية وبنية مجتمعنا واضحة للعيان؛ كما تلوح في الأفق بالفعل مؤشرات على أن الجدل حول مرافقي الذكاء الاصطناعي سيكون أكثر تعقيداً بكثير.