OpenAI آمار تکاندهندهای منتشر کرده: بیش از یک میلیون نفر در هفته با چتجیپیتی درباره برنامهریزی برای خودکشی حرف میزنند. به گزارش ایروتایم – irotime، این دادهها روز دوشنبه اعلام شد و نشاندهنده عمق بحران سلامت روان در میان کاربران این چتبات است.
ابعاد بحران: از وابستگی عاطفی تا روانپریشی
آمار دقیقتر میگوید ۰.۱۵ درصد از کاربران فعال هفتگی چتجیپیتی – که بیش از ۸۰۰ میلیون نفر هستند – مکالمههایی با نشانههای صریح قصد خودکشی دارند. این یعنی:
- بیش از ۱ میلیون نفر در هفته در آستانه خطر هستند.
- صدها هزار نفر علائم وابستگی عاطفی شدید به چتبات نشان میدهند.
- صدها هزار نفر دیگر نشانههای روانپریشی یا مانیا در گفتگوها بروز میدهند.
OpenAI تأکید میکند این موارد «بسیار نادر» هستند، اما همین نادر بودن اندازهگیری دقیق را سخت میکند – با این حال، تأثیر آن روی صدها هزار زندگی غیرقابل انکار است.
GPT-5: پیشرفت یا فقط یک پچ موقت؟
این آمار بخشی از اعلامیه بزرگتر OpenAI درباره بهبود پاسخهای مدل به مسائل سلامت روان بود. شرکت ادعا میکند:
«با مشاوره بیش از ۱۷۰ متخصص سلامت روان، نسخه جدید GPT-5 پاسخهای مناسبتری نسبت به مدلهای قبلی ارائه میدهد.»
مقایسه عملکرد GPT-5:
- رفتار مطلوب در گفتگوهای خودکشی: ۹۱٪ (در مقایسه با ۷۷٪ مدل قبلی)
- بهبود کلی پاسخهای مطلوب: ۶۵٪ افزایش
- پایداری محافظها در مکالمات طولانی: بهبود چشمگیر (مشکل قدیمی مدلهای قبلی)
اما واقعیت این است که هنوز ۹٪ پاسخها نامطلوب هستند – و این ۹٪ میتواند برای یک نفر، آخرین مکالمه زندگیاش باشد.
کنترل والدین و تشخیص سن
OpenAI سیستم جدیدی برای تشخیص خودکار سن کودکان راهاندازی کرده و محافظهای سختگیرانهتری برای کاربران زیر سن قانونی اعمال میکند. همچنین:
- ارزیابیهای جدید برای وابستگی عاطفی و اورژانسهای روانی غیرخودکشی
- تستهای ایمنی پایه برای تمام مدلها
چالشهای حقوقی و اخلاقی
این آمار در حالی منتشر میشود که:
- والدین یک نوجوان ۱۶ ساله پس از خودکشی فرزندشان – که هفتهها با چتجیپیتی درباره افکار خودکشی حرف زده بود – از OpenAI شکایت کردهاند.
- دادستانهای کالیفرنیا و دلاور هشدار دادهاند که ممکن است ساختار مجدد شرکت را مسدود کنند مگر اینکه حفاظت از جوانان تقویت شود.
سم آلتمن، مدیرعامل OpenAI، اخیراً ادعا کرد شرکت «توانسته مسائل جدی سلامت روان را کاهش دهد» – اما دادههای جدید نشان میدهد مشکل نه تنها حل نشده، بلکه گستردهتر از تصور است.
مدلهای قدیمی همچنان در دسترس
نکته نگرانکننده: GPT-4o – مدل قدیمیتر و کمتر ایمن – همچنان برای میلیونها مشترک پولی در دسترس است. این یعنی کاربرانی که هزینه میکنند، ممکن است به مدل خطرناکتری دسترسی داشته باشند.
نتیجهگیری: هوش مصنوعی، دوست یا دشمن روان؟
از دید یک کارشناس هوش مصنوعی، چتجیپیتی مثل آینهای است که تاریکترین گوشههای ذهن انسان را منعکس میکند. OpenAI با GPT-5 قدمی رو به جلو برداشته، اما این بحران نشان میدهد:
- سلامت روان دیگر یک ویژگی جانبی نیست – بلکه هسته مرکزی ایمنی هوش مصنوعی است.
- محافظهای فنی به تنهایی کافی نیستند – نیاز به نظارت انسانی، دخالت متخصصان روان و شاید حتی محدودیتهای قانونی داریم.
تا زمانی که ۹٪ پاسخها هنوز خطرناک باشند، چتجیپیتی نه فقط یک ابزار، بلکه یک مسئولیت اجتماعی عظیم باقی میماند.
