یک کارگروه در ناظر حریم خصوصی اتحادیه اروپا گفت که تلاش های OpenAI برای تولید خروجی کمتر واقعی از چت بات ChatGPT برای اطمینان از انطباق کامل با قوانین داده اتحادیه اروپا کافی نیست.
این کارگروه در گزارشی که روز جمعه در وبسایت خود منتشر کرد، گفت:
«اگرچه اقدامات انجام شده به منظور رعایت اصل شفافیت برای جلوگیری از تفسیر نادرست خروجی ChatGPT مفید است، اما برای مطابقت با اصل دقت دادهها کافی نیست».
نهادی که ناظران ملی حفظ حریم خصوصی اروپا را متحد میکند، سال گذشته پس از آن که تنظیمکنندههای ملی به رهبری مقامات ایتالیا نگرانیهایی را در مورد سرویس پرکاربرد هوش مصنوعی مطرح کردند، کارگروهی را در ChatGPT راهاندازی کرد.
OpenAI بلافاصله به درخواست رویترز برای اظهار نظر پاسخ نداد. در این گزارش آمده است که تحقیقات مختلفی که توسط ناظران ملی حفظ حریم خصوصی در برخی از کشورهای عضو راهاندازی شده است، همچنان ادامه دارد و افزوده است که ارائه شرح کاملی از نتایج هنوز امکان پذیر نیست. این یافتهها باید بهعنوان یک «مخرج مشترک» در میان مقامات ملی درک شود.
دقت داده ها یکی از اصول راهنمای مجموعه قوانین حفاظت از داده اتحادیه اروپا است. در این گزارش آمده است:
«در واقع، به دلیل ماهیت احتمالی سیستم، رویکرد آموزشی فعلی به مدلی منتهی میشود که ممکن است خروجیهای مغرضانه یا ساختگی ایجاد کند».
در سوی دیگر افزوده شد:
“علاوه بر این، خروجی های ارائه شده توسط ChatGPT احتمالاً توسط کاربران نهایی، از جمله اطلاعات مربوط به افراد، بدون توجه به دقت واقعی آنها، از نظر واقعی دقیق تلقی می شوند.”