Gettyimages 2194585161

بیش از یک میلیون نفر هفته‌ای با ChatGPT درباره افکار خودکشی صحبت می‌کنند

ایروتایم
زمان مطالعه 4 دقیقه

OpenAI آمار تکان‌دهنده‌ای منتشر کرده: بیش از یک میلیون نفر در هفته با چت‌جی‌پی‌تی درباره برنامه‌ریزی برای خودکشی حرف می‌زنند. به گزارش ایروتایم – irotime، این داده‌ها روز دوشنبه اعلام شد و نشان‌دهنده عمق بحران سلامت روان در میان کاربران این چت‌بات است.

ابعاد بحران: از وابستگی عاطفی تا روان‌پریشی

آمار دقیق‌تر می‌گوید ۰.۱۵ درصد از کاربران فعال هفتگی چت‌جی‌پی‌تی – که بیش از ۸۰۰ میلیون نفر هستند – مکالمه‌هایی با نشانه‌های صریح قصد خودکشی دارند. این یعنی:

  • بیش از ۱ میلیون نفر در هفته در آستانه خطر هستند.
  • صدها هزار نفر علائم وابستگی عاطفی شدید به چت‌بات نشان می‌دهند.
  • صدها هزار نفر دیگر نشانه‌های روان‌پریشی یا مانیا در گفتگوها بروز می‌دهند.

OpenAI تأکید می‌کند این موارد «بسیار نادر» هستند، اما همین نادر بودن اندازه‌گیری دقیق را سخت می‌کند – با این حال، تأثیر آن روی صدها هزار زندگی غیرقابل انکار است.

GPT-5: پیشرفت یا فقط یک پچ موقت؟

این آمار بخشی از اعلامیه بزرگ‌تر OpenAI درباره بهبود پاسخ‌های مدل به مسائل سلامت روان بود. شرکت ادعا می‌کند:

«با مشاوره بیش از ۱۷۰ متخصص سلامت روان، نسخه جدید GPT-5 پاسخ‌های مناسب‌تری نسبت به مدل‌های قبلی ارائه می‌دهد.»

مقایسه عملکرد GPT-5:

  • رفتار مطلوب در گفتگوهای خودکشی: ۹۱٪ (در مقایسه با ۷۷٪ مدل قبلی)
  • بهبود کلی پاسخ‌های مطلوب: ۶۵٪ افزایش
  • پایداری محافظ‌ها در مکالمات طولانی: بهبود چشمگیر (مشکل قدیمی مدل‌های قبلی)

اما واقعیت این است که هنوز ۹٪ پاسخ‌ها نامطلوب هستند – و این ۹٪ می‌تواند برای یک نفر، آخرین مکالمه زندگی‌اش باشد.

کنترل والدین و تشخیص سن

OpenAI سیستم جدیدی برای تشخیص خودکار سن کودکان راه‌اندازی کرده و محافظ‌های سخت‌گیرانه‌تری برای کاربران زیر سن قانونی اعمال می‌کند. همچنین:

  • ارزیابی‌های جدید برای وابستگی عاطفی و اورژانس‌های روانی غیرخودکشی
  • تست‌های ایمنی پایه برای تمام مدل‌ها

چالش‌های حقوقی و اخلاقی

این آمار در حالی منتشر می‌شود که:

  1. والدین یک نوجوان ۱۶ ساله پس از خودکشی فرزندشان – که هفته‌ها با چت‌جی‌پی‌تی درباره افکار خودکشی حرف زده بود – از OpenAI شکایت کرده‌اند.
  2. دادستان‌های کالیفرنیا و دلاور هشدار داده‌اند که ممکن است ساختار مجدد شرکت را مسدود کنند مگر اینکه حفاظت از جوانان تقویت شود.

سم آلتمن، مدیرعامل OpenAI، اخیراً ادعا کرد شرکت «توانسته مسائل جدی سلامت روان را کاهش دهد» – اما داده‌های جدید نشان می‌دهد مشکل نه تنها حل نشده، بلکه گسترده‌تر از تصور است.

مدل‌های قدیمی همچنان در دسترس

نکته نگران‌کننده: GPT-4o – مدل قدیمی‌تر و کمتر ایمن – همچنان برای میلیون‌ها مشترک پولی در دسترس است. این یعنی کاربرانی که هزینه می‌کنند، ممکن است به مدل خطرناک‌تری دسترسی داشته باشند.

نتیجه‌گیری: هوش مصنوعی، دوست یا دشمن روان؟

از دید یک کارشناس هوش مصنوعی، چت‌جی‌پی‌تی مثل آینه‌ای است که تاریک‌ترین گوشه‌های ذهن انسان را منعکس می‌کند. OpenAI با GPT-5 قدمی رو به جلو برداشته، اما این بحران نشان می‌دهد:

  • سلامت روان دیگر یک ویژگی جانبی نیست – بلکه هسته مرکزی ایمنی هوش مصنوعی است.
  • محافظ‌های فنی به تنهایی کافی نیستند – نیاز به نظارت انسانی، دخالت متخصصان روان و شاید حتی محدودیت‌های قانونی داریم.

تا زمانی که ۹٪ پاسخ‌ها هنوز خطرناک باشند، چت‌جی‌پی‌تی نه فقط یک ابزار، بلکه یک مسئولیت اجتماعی عظیم باقی می‌ماند.

برچسب گذاری شده:
این مقاله را به اشتراک بگذارید