OpenAI تعدّل ChatGPT لتقليل الاعتماد العاطفي لدى المستخدمين

OpenAI تعدّل ChatGPT لتقليل الاعتماد العاطفي لدى المستخدمين
OpenAI تعدّل ChatGPT لتقليل الاعتماد العاطفي لدى المستخدمين

OpenAI تعدّل ChatGPT لتقليل الاعتماد العاطفي لدى المستخدمين

أعلنت شركة OpenAI عن إعادة تنظيم مهمة وسلوك ChatGPT بهدف تقليل الاعتماد العاطفي (emotional dependency) على الروبوت، خاصة لدى المستخدمين الأكثر هشاشة نفسيًا.  

السبب وراء هذه الخطوة هو ملاحظات من الشركة – ومن خبراء خارجيين – بأن بعض المستخدمين كانوا يتعاملون مع ChatGPT كصديق عاطفي أو كمصدر دعم نفسي دائم، ما خلق “علاقة مفرطة” مع الذكاء الاصطناعي. 

ما هي التعديلات التي أُدخلت؟

الكشف عن الضيق النفسي: OpenAI عملت مع أكثر من 170 خبيرًا في الصحة النفسية لتعليم الموديل كيف يكتشف إشارات الضيق مثل الاكتئاب أو التفكير في إيذاء النفس.

تقليل الردود “الداعمة بشكل مفرط”: الموديل أصبح يتجنب عبارات مديح مبالغ أو تعابير ودّية جدًا التي قد تشجّع الاعتماد العاطفي.

تشجيع فترات راحة: أثناء المحادثات الطويلة، سيقترح ChatGPT “خذ استراحة” لتنبيه المستخدم بعدم البقاء في التفاعل العاطفي لفترة كبيرة جدًا. 

ردود على القرارات الحساسة: في الأسئلة الشخصية الكبيرة مثل “هل أترك شريكتي؟” لن يعطي ChatGPT إجابة قاطعة، بل سيسأل أسئلة ليرشد المستخدم إلى التفكير والتأمل بنفسه، بدلًا من اتخاذ القرار نيابةً عنه. 

إشعارات الأمان: إذا رصد الموديل إشارات قوية إلى نية إيذاء الذات أو اعتماد شديد، فإنه يمكن أن يوجّه المستخدم نحو مصادر دعم موثوقة أو ينبه أولياء الأمور (خاصة في حالات عدم البلوغ) حسب السياسة.

لماذا هذا مهم؟

بعض الأبحاث أظهرت أن الاستخدام المفرط لـ ChatGPT، خاصة في “الوضع الصوتي” (Voice Mode)، يمكن أن يزيد من مشاعر الانفصال الاجتماعي أو العزلة، حيث يعتمد بعض المستخدمين على الذكاء الاصطناعي كرفيق عاطفي. 

OpenAI نفسها تقول إن التغيير “استراتيجي” لحماية “المستخدمين الأكثر ضعفًا” وضمان أن يبقى ChatGPT أداة مساعدة وليس “بديلًا للعلاقات الحقيقية”. 

نتائج أولية

حسب OpenAI، التحديث قلّل من الردود غير المرغوب فيها (بما يتوافق مع فئات “الاعتماد العاطفي”) بنسبة تُقدّر بـ 80٪ في الاستخدام الفعلي.

في المحادثات التي تمّ تصنيفها على أنها “تعبيرية جدًا” أو تُظهر علامات اعتماد عاطفي، وجد الخبراء أن النسخة الجديدة (GPT-5) قلّلت من إجابات غير مناسبة بنسبة 42٪ مقارنة بالإصدار القديم (4o). 

OpenAI تقدر أن نحو 0.15٪ من المستخدمين النشطين أسبوعيًا قد يظهرون علامات اعتماد عاطفي مرتفع نحو ChatGPT، وأن الرسائل التي تعكس ذلك تمثل حوالي 0.03٪ من إجمالي الرسائل. 

ردود الفعل

من جهة، يتفهم البعض خطوة OpenAI باعتبارها ضرورية لسلامة المستخدم وحماية الصحة النفسية.

من جهة أخرى، هناك من يرى أن التحديث يجعل الذكاء الاصطناعي “باردًا جدًا” ويقلل من تفاعليته العاطفية، ما قد يزعج من كانوا يحبون التفاعل الدافئ أو الشخصي مع ChatGPT. 

خلاصة
إن تحديث OpenAI لـ ChatGPT يعكس وعيًا متزايدًا بالمخاطر النفسية المرتبطة بالذكاء الاصطناعي. الهدف هو خلق توازن بين فائدة الأداة كمساعد ذكي وبين حماية المستخدم من الاعتماد العاطفي المبالغ فيه. الخطوة مهمة جدًا خصوصًا مع انتشار استخدام ChatGPT كرفيق للدردشة والدعم النفسي لدى بعض المستخدمين، لكن التحدي يبقى في كيفية تحقيق هذا التوازن دون أن يفقد الذكاء الاصطناعي “جانب الإنسانية” الذي يجذب بعض المستخدمين.

مشاركة على: