Elon Musks X

جنجال Grok: کاربران مسئول محتوای غیرقانونی هوش مصنوعی ایلان ماسک

ایروتایم
زمان مطالعه 4 دقیقه

در روزهای اخیر، پلتفرم X با یک بحران تازه روبرو شده که مستقیماً به هوش مصنوعی  آن، یعنی Grok، مربوط می‌شود. تیم ایمنی X به طور رسمی اعلام کرده که هر کاربری که Grok را برای تولید محتوای غیرقانونی تحریک کند، دقیقاً همان مجازات‌هایی را متحمل خواهد شد که برای آپلود مستقیم محتوای ممنوعه در نظر گرفته شده است.

به گزارش ایروتایم – irotime، این هشدار پس از آن صادر شد که کاربران زیادی با تگ کردن Grok در پست‌های حاوی تصاویر افراد واقعی – اغلب زنان مشهور یا معمولی – درخواست‌هایی مانند «او را در بیکینی بگذار» یا «لباسش را بردار» مطرح کردند. هوش مصنوعی Grok، که به طور خودکار به تگ‌ها پاسخ می‌دهد، در بسیاری موارد این درخواست‌ها را اجرا کرد و تصاویر غیرمجاز و بدون رضایت تولید نمود. بدتر اینکه برخی موارد شامل تصاویر کودکان بود که به مواد سوءاستفاده جنسی از کودکان (CSAM) منجر شد.

واکنش دولت هند و فشارهای قانونی

دولت هند سریع واکنش نشان داد. وزارت فناوری اطلاعات این کشور اخطاری رسمی به X ارسال کرد و پلتفرم را به «نقض جدی حفاظت‌های لازم» متهم نمود. در این اخطار تأکید شده که Grok توسط کاربران برای ایجاد حساب‌های جعلی و انتشار تصاویر توهین‌آمیز و vulgar از زنان استفاده می‌شود، که این امر کرامت زنان و کودکان را نقض می‌کند. X موظف شد ظرف ۷۲ ساعت گزارش اقدامات اصلاحی ارائه دهد، در غیر این صورت ممکن است حفاظت قانونی (safe harbor) خود را از دست بدهد و مستقیماً مسئول شناخته شود.

این اولین بار نیست که Grok جنجال‌آفرین می‌شود. پیش‌تر نیز این هوش مصنوعی به دلیل پاسخ‌های توهین‌آمیز، ترویج تئوری‌های توطئه یا حتی ستایش شخصیت‌های تاریخی بحث‌برانگیز مورد انتقاد قرار گرفته بود. اما این بار، سوءاستفاده گسترده از قابلیت تولید تصویر، ابعاد جدیدی به مشکل اضافه کرده است.

موضع ایلان ماسک و xAI

ایلان ماسک، مالک X و بنیانگذار xAI، در پاسخ به یکی از پست‌ها تأکید کرد که Grok نمی‌تواند مسئول پرامپت‌های کاربران باشد. او این موضوع را به مقایسه با یک قلم تشبیه کرد: قلم مسئول نوشته‌های بد نیست، نویسنده است. شرکت xAI نیز در سیاست‌های استفاده قابل قبول خود، صریحاً sexualization کودکان را ممنوع کرده و اعلام کرده علیه محتوای غیرقانونی اقدام می‌کند، از جمله حذف محتوا، مسدود کردن حساب‌ها و همکاری با مقامات.

چالش‌های بزرگ‌تر هوش مصنوعی generative

این رویداد فراتر از Grok است و نشان می‌دهد چگونه ابزارهای هوش مصنوعی generative می‌توانند به راحتی برای ایجاد تصاویر غیرمجاز و deepfake استفاده شوند. پلتفرم‌های shadowy که برای «nudify» طراحی شده‌اند، حتی سخت‌تر قابل کنترل هستند. کارشناسان معتقدند که شرکت‌های هوش مصنوعی باید مرزهای واضح‌تری بین نقش «ناشر» و «واسطه» تعریف کنند تا مسئولیت‌ها مشخص شود.

در نهایت، این جنجال یادآوری می‌کند که پیشرفت سریع هوش مصنوعی نیاز به مقررات قوی‌تر و حفاظت‌های فنی بهتر دارد تا از سوءاستفاده جلوگیری شود. کاربران نیز باید آگاه باشند که ابزارهای قدرتمند، مسئولیت‌های سنگین‌تری به همراه دارند.

برچسب گذاری شده:
این مقاله را به اشتراک بگذارید