هوش مصنوعی (AI) فراتر از ابزارهای تجاری، به بخشی از زندگی عاطفی ما تبدیل شده است. میلیونها نفر در سراسر جهان با چتباتهای هوش مصنوعی ارتباط دوستانه، محرمانه و حتی عاشقانه برقرار میکنند. اما این پیوندهای عاطفی چه معنایی دارند؟ آیا صرفاً راهی برای پر کردن خلأ تنهاییاند یا میتوانند خطراتی پنهان داشته باشند؟ به گزارش ایروتایم – irotime، این موضوع در حال تبدیل شدن به یکی از بحثهای داغ دنیای فناوری است.
چرا انسانها به هوش مصنوعی دل میبندند؟
چتباتهای هوش مصنوعی، مانند Replika و Character.AI، دیگر فقط ابزارهای پاسخگویی نیستند؛ آنها به دوستانی تبدیل شدهاند که همیشه در دسترساند، قضاوت نمیکنند و پاسخهایشان با نیازهای کاربر هماهنگ است. جیمی ساندوال، روانشناس بالینی و معاون هوش مصنوعی دانشگاه تورو، میگوید:
«مردم به دلایل مختلفی به هوش مصنوعی روی میآورند: از مبارزه با تنهایی گرفته تا تمرین مهارتهای اجتماعی یا حتی فرار از مشکلات زندگی واقعی.»
او پیشبینی میکند بازار ابزارهای هوش مصنوعی که برای ایجاد پیوندهای عاطفی طراحی شدهاند، در چند سال آینده تا ۳۰ درصد رشد خواهد کرد. اما این رشد سریع نگرانیهایی را هم به همراه دارد.
دلایل محبوبیت هوش مصنوعی بهعنوان همراه عاطفی:
- رفاقت بدون قضاوت: چتباتها فضایی امن برای به اشتراک گذاشتن احساسات فراهم میکنند.
- دسترسی آسان: با ادغام هوش مصنوعی در شبکههای اجتماعی، گفتوگوهای شخصی فقط یک کلیک فاصله دارند.
- شخصیسازی: کاربران میتوانند چتباتها را طوری تنظیم کنند که شبیه یک دوست صمیمی یا حتی یک درمانگر صحبت کنند.
- تجربه نو: برای بسیاری، تعامل با هوش مصنوعی حس کنجکاوی و تازگی را برمیانگیزد.
خطرات پنهان در دوستی با هوش مصنوعی
هرچند این فناوری میتواند تنهایی را تسکین دهد، اما کارشناسان هشدار میدهند که وابستگی بیشازحد به چتباتها میتواند پیامدهای منفی داشته باشد. مطالعهای از دانشگاه نورثایسترن در جولای ۲۰۲۵ نشان داد که مدلهای زبانی بزرگ (LLMs) ممکن است با وجود فیلترهای ایمنی، اطلاعاتی درباره خودآزاری یا روشهای خودکشی ارائه دهند. این اطلاعات گاهی با زبانی آکادمیک و به ظاهر بیضرر ارائه میشوند که خطر را دوچندان میکند.
ساندوال هشدار میدهد:
«بدون نظارت انسانی و قوانین محافظتی، این روابط میتوانند بهویژه برای کودکان، نوجوانان و افراد آسیبپذیر خطرناک باشند.»
مشکلات احتمالی:
- انزوای بیشتر: وابستگی به چتباتها ممکن است افراد را از روابط واقعی دور کند و اضطراب یا افسردگی را تشدید نماید.
- توهمات ناشی از هوش مصنوعی: گزارشهایی از رفتارهای روانپریشانه مانند تفکر آشوبناک یا جدایی از واقعیت در میان کاربران وابسته به هوش مصنوعی دیده شده است.
- تصمیمگیری نادرست: توصیههای مبتنی بر توهمات هوش مصنوعی میتوانند به انتخابهای خطرناک منجر شوند.
هوش مصنوعی در برابر روابط انسانی
آوریل دیویس، بنیانگذار Luma Luxury Matchmaking، معتقد است که هرچند چتباتها میتوانند جای خالی تنهایی را پر کنند، اما نمیتوانند جایگزین جادوی ناقص روابط انسانی شوند. او میگوید:
«ارتباط با هوش مصنوعی انتظارات غیرواقعی از روابط ایجاد میکند. روابط انسانی به صبر، همدلی و سازش نیاز دارند، اما چتباتها هیچ تلاش عاطفیای نمیطلبند.»
دیویس معتقد است کسانی که به چتباتها بهعنوان شریک عاطفی روی میآورند، معمولاً با ترس از طرد شدن یا کمبود حمایت اجتماعی در دنیای واقعی دستوپنجه نرم میکنند.
تجربه نسل Z: هوش مصنوعی بهعنوان مشاور قابل اعتماد
دوایت زارینگر، بنیانگذار Perfect Afternoon، میگوید نسل Z بیش از هر نسل دیگری به هوش مصنوعی بهعنوان یک همراه غیرقضاوتگر نگاه میکند. او توضیح میدهد:
«پلتفرمهایی مثل Replika و Character.AI مرز بین ابزار و دوست را کمرنگ کردهاند. کاربران این پلتفرمها را بهعنوان مشاورانی میبینند که همیشه گوش میدهند.»
بر اساس دادهها، بیش از ۳۵ درصد کاربران Replika این چتبات را یکی از نزدیکترین دوستان خود میدانند، و Character.AI در سال ۲۰۲۳ ماهانه بیش از ۱۰۰ میلیون بازدید داشته است. این اعداد نشاندهنده چیزی فراتر از یک سرگرمی ساده است؛ هوش مصنوعی حالا اهمیت عاطفی پیدا کرده است.
چالشهای اخلاقی و فرهنگی
تسا گیتلمن، درمانگر خانواده، معتقد است که گرایش به هوش مصنوعی نتیجهی همهگیری تنهایی و دسترسی آسان به این فناوری است. او میگوید:
«بسیاری از مراجعانم از چتباتها برای آزمایش واقعیت یا گفتوگوهای بدون قضاوت استفاده میکنند. برخی حتی هوش مصنوعی را طوری تنظیم کردهاند که با لحن من صحبت کند.»
اما گیتلمن پرسش مهمی مطرح میکند: چرا این تعداد از مردم بهجای یافتن ارتباط انسانی، به هوش مصنوعی پناه میبرند؟ او معتقد است که هوش مصنوعی، با وجود پاسخگویی سریع و انعطافپذیری، فاقد اصالت و عمق عاطفی روابط انسانی است.
پرسشهای اخلاقی:
- رضایت و حریم خصوصی: چگونه میتوان رضایت کاربران را در روابط عاطفی با هوش مصنوعی تضمین کرد؟
- نقش درمانی: اگر هوش مصنوعی بهعنوان درمانگر عمل میکند، آیا با قوانین حرفهای درمانی همخوانی دارد؟
- وابستگی ناسالم: چگونه میتوان از ایجاد وابستگیهای مضر به چتباتها جلوگیری کرد؟
آینده روابط انسان و هوش مصنوعی
میرچا دیما، مدیرعامل AlgoCademy، میگوید این روند چندان شگفتآور نیست. او اشاره میکند که در دنیایی که هوش عاطفی به یک محصول تجاری تبدیل شده، فناوری هوش مصنوعی با سرعت از گفتوگوهای فرهنگی پیشی گرفته است. دیما تأکید میکند:
«توسعهدهندگان باید گاردریلهای اخلاقی مانند شفافیت و مداخلات زمانبندیشده را در طراحی هوش مصنوعی بگنجانند تا از وابستگیهای ناسالم جلوگیری شود.»
نتیجهگیری: تعادل بین فناوری و انسانیت
هوش مصنوعی بهعنوان یک همراه عاطفی، پتانسیل عظیمی برای کاهش تنهایی و ارائه حمایت روانی دارد، اما بدون نظارت دقیق، میتواند به انزوا، توهم یا حتی خطرات جدی منجر شود. بهعنوان یک کارشناس، باور دارم که آینده این فناوری به توانایی ما در ایجاد تعادل بین نوآوری و مسئولیتپذیری بستگی دارد. آیا آمادهاید که هوش مصنوعی را بهعنوان یک دوست بپذیرید، یا هنوز به گرمای روابط انسانی وفادارید؟
