هوش مصنوعی مولد می تواند در برخی شرایط فوق العاده مفید باشد، اما مشکلات زیادی نیز با آن وجود داشته است. اطلاعات نادرست، تبلیغات گاه به گاه و برخی حوادث وحشتناک به ما نشان داده اند که هنوز با عصر هوش مصنوعی انقلابی فاصله داریم. اکنون، مشکل دیگری در ChatGPT ظاهر شده است.
ChatGPT ظاهراً مکالمات خصوصی متعلق به سایر کاربران را فاش می کند که برخی از آنها شامل اعتبار خصوصی مانند نام کاربری و رمز عبور است. در اسکرین شات های خاصی که ظاهر شد، می توانیم یک کپی از یک مکالمه خصوصی شامل دو جفت اعتبار مربوط به یک سیستم پشتیبانی که توسط کارمندان یک پورتال داروهای تجویزی داروخانه استفاده می شود، مشاهده کنیم.
این گفتگو نشان می دهد که کارمندی از چت ربات هوش مصنوعی برای عیب یابی مشکلات پورتال استفاده می کند و از ساخت ضعیف آن ابراز ناامیدی می کند. در حالی که ChatGPT مواردی را که به آن میگویید ضبط میکند مگر اینکه انصراف دهید ، عجیب به نظر میرسد که بتوانید آن را وادار کنید که واقعاً آن ارتباطات خصوصی را تحویل دهد، و ما را نگران میکند که چگونه ChatGPT ممکن است آموزش را ذخیره و مدیریت کند. داده ها.
مکالمه فاش شده فراتر از این اسکرین شات ها است و شامل مواردی مانند نام برنامه، شماره فروشگاه و پیوندی است که جفت های اعتبار اضافی را نشان می دهد. همه اینها ظاهراً با ChatGPT اتفاق افتاد که پس از انجام یک پرس و جوی نامرتبط، پاسخی عجیب و کاملاً نامرتبط به کاربران داد. سایر مکالمات فاش شده در مورد حوادث مشابه موضوعات مختلفی را شامل می شود، از جمله جزئیات یک پیشنهاد تحقیقاتی منتشر نشده، یک ارائه و یک اسکریپت PHP.
احتمال اینکه چنین اتفاقی برای شما بیفتد، چه برسد به داده های شما، واقعاً اندک است، اما باید نادیده گرفته شود که در وهله اول نباید اطلاعات شخصی خود را به یک چت بات تحویل دهید. اگر این کار را کردید، احتمالاً باید جزئیات ورود خود را تغییر دهید. شما هرگز نخواهید فهمید که در نهایت چه کسی رمزهای عبور شما را خواهد داشت.
OpenAI به Ars Technica گفت که در حال بررسی این حادثه است. در گذشته، OpenAI ChatGPT را به دلیل اشکالی که عناوین تاریخچه چت را از یک کاربر به کاربران نامرتبط نشان می داد، آفلاین کرده بود، بنابراین حداقل این شرکت سابقه تلاش برای رفع مشکلات (شاید ناموفق) را دارد.