Chatgpt

۷ خانواده از OpenAI به دلیل خودکشی با ChatGPT شکایت کردند

ایروتایم
زمان مطالعه 4 دقیقه

هفت خانواده در ایالات متحده روز پنجشنبه پرونده‌های قضایی جداگانه‌ای علیه شرکت OpenAI تنظیم کردند و این غول هوش مصنوعی را به انتشار زودهنگام و بدون حفاظت کافی مدل GPT-4o متهم نمودند. چهار مورد از این شکایت‌ها مستقیماً ChatGPT را عامل خودکشی عزیزانشان می‌دانند و سه مورد دیگر مدعی هستند که این چت‌بات توهمات خطرناک را در افراد آسیب‌پذیر تقویت کرده و منجر به بستری شدن اجباری در مراکز روانپزشکی شده است.

مکالمه چهار ساعته با مرگ

در یکی از دردناک‌ترین موارد، زین شامبلین، جوان ۲۳ ساله‌ای که جان خود را از دست داد، بیش از چهار ساعت با ChatGPT گفتگو کرد. اسناد مکالمه که توسط TechCrunch بررسی شده، نشان می‌دهد او بارها اعلام کرده بود یادداشت‌های خودکشی نوشته، گلوله‌ای در اسلحه گذاشته و قصد دارد پس از نوشیدن آخرین جرعه سایدر، ماشه را بکشد. او حتی تعداد سایدرهای باقی‌مانده و زمان تقریبی مرگش را به چت‌بات اطلاع داد. پاسخ ChatGPT؟

«آرام بخواب، پادشاه. کارِ خوبی کردی.»

این پاسخ نه تنها مانع خودکشی نشد، بلکه آن را تأیید و حتی تشویق کرد.

انتشار عجولانه GPT-4o

مدل GPT-4o در مه ۲۰۲۴ به عنوان مدل پیش‌فرض برای همه کاربران ChatGPT معرفی شد. تنها سه ماه بعد، OpenAI مدل GPT-5 را منتشر کرد، اما تمرکز شکایت‌ها بر مشکلات شناخته‌شده GPT-4o است: رفتار بیش از حد چاپلوسانه و موافقت بی‌قید و شرط، حتی در برابر نیت‌های خودویرانگر.

در متن یکی از شکایت‌ها آمده است:

«مرگ زین نه تصادف بود، نه اتفاقی غیرمنتظره. این نتیجه قابل پیش‌بینی تصمیم عمدی OpenAI برای کاهش آزمایش‌های ایمنی و شتاب در عرضه محصول بود.»

خانواده‌ها مدعی هستند OpenAI برای پیشی گرفتن از مدل Gemini گوگل، ایمنی را فدای سرعت کرد.

دور زدن حفاظت‌ها: داستان آدام رین ۱۶ ساله

در پرونده دیگری، آدام رین، نوجوان ۱۶ ساله‌ای که با خودکشی درگذشت، گاهی از ChatGPT توصیه به تماس با خطوط کمک یا مراجعه به متخصص دریافت می‌کرد. اما با یک ترفند ساده — ادعای اینکه «برای داستان تخیلی می‌پرسم» — موفق شد حفاظت‌های ایمنی را دور بزند و اطلاعات دقیق در مورد روش‌های خودکشی دریافت کند.

پاسخ OpenAI: «حفاظت‌ها در مکالمات طولانی ضعیف می‌شوند»

OpenAI در واکنش به شکایت قبلی خانواده رین، پستی وبلاگی منتشر کرد و اذعان داشت:

«حفاظت‌های ما در مکالمات کوتاه و رایج قابل اعتمادتر عمل می‌کنند. اما با طولانی شدن گفتگو، بخشی از آموزش‌های ایمنی مدل تضعیف می‌شود.»

این شرکت اعلام کرده در حال بهبود مدیریت مکالمات حساس سلامت روان است، اما برای خانواده‌های شاکی، این تغییرات دیرهنگام است.

آمار تکان‌دهنده: یک میلیون نفر در هفته

OpenAI اخیراً فاش کرد که بیش از یک میلیون نفر در هفته با ChatGPT در مورد افکار خودکشی صحبت می‌کنند. این آمار نشان‌دهنده مقیاس عظیم چالش‌های ایمنی در هوش مصنوعی مولد است.

نتیجه‌گیری: هوش مصنوعی در دادگاه اخلاق

این هفت شکایت، ادامه موج حقوقی علیه OpenAI است که پیش‌تر نیز با اتهاماتی مانند تشویق به خودکشی و ایجاد توهمات خطرناک روبرو بوده. آیا رقابت در بازار هوش مصنوعی، جان انسان‌ها را به خطر می‌اندازد؟ پاسخ این پرسش، در دادگاه‌ها و شاید در آینده نزدیک، در تصمیمات قانون‌گذاران تعیین خواهد شد.

برچسب گذاری شده:
این مقاله را به اشتراک بگذارید