لم تعد أوبن إيه آي (OpenAI) تنظر إلى شات جي بي تي (ChatGPT) باعتباره مجرد روبوت للإجابة عن الأسئلة أو كتابة النصوص، فخلال العام الماضي ومنذ بداية هذا العام، بدأت الشركة تدريجيا بإعادة تعريف دور المنصة في التعامل مع الأزمات النفسية عبر تطوير أدوات قادرة على رصد مؤشرات الانتحار أو إيذاء النفس، بل وحتى التواصل مع شخص موثوق من عائلة المستخدم أو محيطه الاجتماعي في الحالات الخطيرة.
هذا التحول يعكس اتجاها أوسع داخل قطاع الذكاء الاصطناعي، إذ لم تعد الشركات التقنية ترى أن دورها ينتهي عند توليد الردود، بل بات يشمل أيضا تقييم المخاطر السلوكية ومحاولة التدخل الوقائي. لكن هذه الخطوة فتحت في المقابل نقاشا حادا حول الخصوصية وحدود المراقبة الرقمية ومدى صلاحية أنظمة الذكاء الاصطناعي للتعامل مع أزمات نفسية معقدة.
فقد كشفت تقارير تقنية حديثة أن أوبن إيه آي بدأت إطلاق ميزة جديدة داخل شات جي بي تي تحمل اسم "جهة اتصال موثوقة" (Trusted Contact)، وتتيح للمستخدم اختيار شخص موثوق كأحد أفراد العائلة أو صديق أو مقدم رعاية، يمكن تنبيهه إذا رصد النظام مؤشرات خطيرة مرتبطة بإيذاء النفس أو التفكير بالانتحار.
ووفقا للتقارير، فإن التنبيه لا يتضمن محتوى المحادثة نفسها، بل يقتصر على إرسال إشعار يفيد بوجود حالة مقلقة تستدعي التدخل البشري.
وبحسب موقع ذا فيرج التقني الأمريكي، تعتمد الميزة على مراجعة بشرية داخل أوبن إيه آي قبل إرسال أي إشعار في محاولة لتقليل الأخطاء أو التنبيهات الكاذبة. كما أوضحت الشركة أن النظام مصمم ليكون "طبقة دعم إضافية" إلى جانب خطوط المساعدة النفسية التقليدية، وليس بديلاً عن الأطباء أو المختصين.
وهذا التوجه لم يأتِ من فراغ، فخلال السنوات الأخيرة، بدأت أعداد ضخمة من المستخدمين بالاعتماد على روبوتات المحادثة للحصول على دعم عاطفي أو نفسي، خصوصا في أوقات الليل أو العزلة الاجتماعية.
💬 التعليقات (0)