هوش مصنوعی

اروپا از نظر حریم خصوصی ChatGPT را تایید نمی کند

یک کارگروه در ناظر حریم خصوصی اتحادیه اروپا گفت که تلاش های OpenAI برای تولید خروجی کمتر واقعی از چت بات ChatGPT برای اطمینان از انطباق کامل با قوانین داده اتحادیه اروپا کافی نیست.

این کارگروه در گزارشی که روز جمعه در وب‌سایت خود منتشر کرد، گفت:

«اگرچه اقدامات انجام شده به منظور رعایت اصل شفافیت برای جلوگیری از تفسیر نادرست خروجی ChatGPT مفید است، اما برای مطابقت با اصل دقت داده‌ها کافی نیست».

نهادی که ناظران ملی حفظ حریم خصوصی اروپا را متحد می‌کند، سال گذشته پس از آن که تنظیم‌کننده‌های ملی به رهبری مقامات ایتالیا نگرانی‌هایی را در مورد سرویس پرکاربرد هوش مصنوعی مطرح کردند، کارگروهی را در ChatGPT راه‌اندازی کرد.

 اروپا از نظر حریم خصوصی ChatGPT را تایید نمی کند

OpenAI بلافاصله به درخواست رویترز برای اظهار نظر پاسخ نداد. در این گزارش آمده است که تحقیقات مختلفی که توسط ناظران ملی حفظ حریم خصوصی در برخی از کشورهای عضو راه‌اندازی شده است، همچنان ادامه دارد و افزوده است که ارائه شرح کاملی از نتایج هنوز امکان پذیر نیست. این یافته‌ها باید به‌عنوان یک «مخرج مشترک» در میان مقامات ملی درک شود.

دقت داده ها یکی از اصول راهنمای مجموعه قوانین حفاظت از داده اتحادیه اروپا است. در این گزارش آمده است:

«در واقع، به دلیل ماهیت احتمالی سیستم، رویکرد آموزشی فعلی به مدلی منتهی می‌شود که ممکن است خروجی‌های مغرضانه یا ساختگی ایجاد کند».

در سوی دیگر افزوده شد:

“علاوه بر این، خروجی های ارائه شده توسط ChatGPT احتمالاً توسط کاربران نهایی، از جمله اطلاعات مربوط به افراد، بدون توجه به دقت واقعی آنها، از نظر واقعی دقیق تلقی می شوند.”

منبع
gadgets360

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا