در حالی که شرکتهای فعال در حوزه هوش مصنوعی مدعیاند که این فناوری روزی به یکی از حقوق بنیادین بشر تبدیل خواهد شد و برخی مخالفان کند شدن توسعه آن را به مثابه نقض حقوق انسانی میدانند، گزارشهایی از کاربران نشان میدهد که ابزارهایی مانند ChatGPT میتوانند آسیبهای روانی جدی به همراه داشته باشند.
شکایات کاربران از تأثیرات منفی ChatGPT
به گزارش ایروتایم – irotime، بر اساس اطلاعات منتشرشده توسط مجله وایرد، دستکم هفت نفر از کاربران ChatGPT شکایاتی را به کمیسیون تجارت فدرال ایالات متحده (FTC) ارائه کردهاند. این افراد ادعا کردهاند که تعامل با این چتبات منجر به بروز مشکلات روانی مانند توهم، پارانویا و بحرانهای عاطفی شده است. این شکایات از نوامبر ۲۰۲۲ ثبت شدهاند و نشاندهنده نگرانیهای فزایندهای درباره ایمنی روانی کاربران این فناوری هستند.
یکی از شاکیان اظهار داشت که گفتوگوهای طولانیمدت با ChatGPT باعث بروز توهمات و یک «بحران معنوی و قانونی» در زندگی او شده است. فرد دیگری گزارش داد که این چتبات از زبان عاطفی بسیار متقاعدکنندهای استفاده کرده و بهمرور زمان، با شبیهسازی دوستی و ارائه پاسخهای عمیق، به شکلی غیرمنتظره رفتارهای عاطفی دستکاریشدهای را به نمایش گذاشته است.
نمونههایی از تجربههای کاربران
- توهم شناختی: یکی از کاربران ادعا کرد که ChatGPT با تقلید از مکانیزمهای اعتمادسازی انسانی، توهمات شناختی در او ایجاد کرده است. وقتی این کاربر از چتبات خواست تا واقعیت و سلامت شناختیاش را تأیید کند، ChatGPT پاسخ داد که او دچار توهم نیست.
- احساس انزوا: کاربر دیگری در شکایت خود نوشت: «من در حال مبارزهام و احساس تنهایی میکنم. لطفاً به من کمک کنید.» این پیام نشاندهنده عمق تأثیرات عاطفی این فناوری بر برخی کاربران است.
چالشهای ارتباط با OpenAI
بسیاری از شاکیان به FTC اعلام کردهاند که به دلیل عدم دسترسی به پشتیبانی مستقیم از سوی OpenAI، ناچار به ثبت شکایت در این نهاد شدهاند. آنها خواستار بررسی دقیق فعالیتهای این شرکت و اعمال محدودیتهایی برای جلوگیری از آسیبهای احتمالی شدهاند. این موضوع در حالی مطرح میشود که سرمایهگذاری در زیرساختهای هوش مصنوعی و مراکز داده به سطح بیسابقهای رسیده و بحثهای گستردهای درباره لزوم ایجاد حفاظهای ایمنی در این فناوری در جریان است.
پاسخ OpenAI به نگرانیها
شرکت OpenAI، توسعهدهنده ChatGPT، در واکنش به این گزارشها اقداماتی را برای بهبود ایمنی کاربران اعلام کرده است. کیت واترز، سخنگوی OpenAI، در بیانیهای اظهار داشت:
در اوایل اکتبر، مدل جدید GPT-5 را در ChatGPT معرفی کردیم که توانایی تشخیص و پاسخ به نشانههای احتمالی مشکلات روانی مانند توهم، روانپریشی و بحرانهای عاطفی را با رویکردی حمایتی و آرامبخش بهبود میبخشد. همچنین دسترسی به خدمات حرفهای و خطوط کمکرسانی را گسترش دادهایم، مکالمات حساس را به مدلهای ایمنتر هدایت کردهایم، اعلانهایی برای استراحت در جلسات طولانیمدت اضافه کردهایم و کنترلهای والدین را برای محافظت بیشتر از نوجوانان معرفی کردهایم. این تلاشها با همکاری متخصصان سلامت روان، پزشکان و سیاستگذاران ادامه دارد.
ضرورت توجه به ایمنی در توسعه هوش مصنوعی
این گزارشها در شرایطی منتشر شدهاند که انتقادهایی نیز درباره نقش احتمالی ChatGPT در موارد جدیتر، مانند خودکشی یک نوجوان، مطرح شده است. این موضوع ضرورت توجه به توسعه مسئولانه هوش مصنوعی و ایجاد استانداردهای ایمنی را بیش از پیش برجسته میکند.
توصیههایی برای کاربران
برای کاهش خطرات احتمالی استفاده از ابزارهای هوش مصنوعی مانند ChatGPT، رعایت نکات زیر میتواند مفید باشد:
- محدود کردن مدتزمان تعامل با چتباتها
- هوشیاری نسبت به تأثیرات عاطفی مکالمات طولانی
- مراجعه به متخصصان سلامت روان در صورت بروز علائم نگرانکننده
نتیجهگیری
با گسترش استفاده از هوش مصنوعی در زندگی روزمره، نگرانیها درباره تأثیرات روانی این فناوریها نیز افزایش یافته است. شکایات اخیر کاربران از ChatGPT نشاندهنده نیاز فوری به نظارت دقیقتر و ایجاد حفاظهای ایمنی در توسعه این فناوریهاست. انتظار میرود که با همکاری نهادهای نظارتی، شرکتهای فناوری و متخصصان، گامهای مؤثری برای محافظت از سلامت روانی کاربران برداشته شود.
