به گزارش ایروتایم – irotime به نقل از techcrunch، سازمان صنفی ژاپنی که نمایندگی ناشرانی مانند استودیو گیبلی را بر عهده دارد، هفته گذشته نامهای رسمی به اوپنایآی ارسال کرد و از این غول هوش مصنوعی خواست بدون کسب مجوز، از محتوای دارای حق نشر اعضایش برای آموزش مدلهای هوش مصنوعی استفاده نکند.
تأثیر مستقیم ابزارهای اوپنایآی بر استودیو گیبلی
استودیو گیبلی، خالق انیمیشنهای ماندگاری چون «شهر اشباح» (Spirited Away) و «همسایه من توتورو» (My Neighbor Totoro)، یکی از قربانیان اصلی ابزارهای مولد اوپنایآی بوده است. از زمان راهاندازی مولد تصویر داخلی ChatGPT در ماه مارس، کاربران به سرعت به بازسازی سلفیها یا عکسهای حیوانات خانگی خود در سبک گیبلی روی آوردند و این موج به حدی رسید که حتی سام آلتمن، مدیرعامل اوپنایآی، عکس پروفایل خود در شبکه اجتماعی ایکس را به نسخه «گیبلیشده» تغییر داد.
حال با گسترش دسترسی به اپلیکیشن Sora و مولد ویدئو، انجمن توزیع محتوای خارجی ژاپن (CODA) رسماً از اوپنایآی خواسته است که از بهکارگیری آثار اعضای خود در فرآیند یادگیری ماشینی خودداری کند.
سابقه رویکرد «بخشش به جای اجازه» در اوپنایآی
این درخواست ناگهانی نیست. اوپنایآی تاکنون سیاست «درخواست بخشش به جای کسب اجازه» را در پیش گرفته که منجر به تولید آسان تصاویر و ویدئوهای شخصیتهای دارای حق نشر یا حتی افراد فوتشده شده است. نمونههای مشابه اعتراض شامل شرکت نینتندو و بنیاد مارتین لوتر کینگ جونیور است؛ بنیاد کینگ نگران است که سخنرانیهای تاریخی او به سادگی در Sora جعل شود.
گزینههای پیش روی اوپنایآی و ابهامات حقوقی
تصمیم نهایی با اوپنایآی است: همکاری داوطلبانه یا مواجهه با دعاوی حقوقی. قانون ایالات متحده هنوز در زمینه استفاده از مواد دارای حق نشر برای آموزش هوش مصنوعی شفاف نیست. قانون کپیرایت از سال ۱۹۷۶ بهروزرسانی اساسی نشده و سابقه قضایی محدودی وجود دارد.
با این حال، قاضی فدرال ویلیام آلساپ اخیراً در پرونده آنتروپیک حکم داد که آموزش مدل روی کتابهای دارای حق نشر نقض قانون نیست، هرچند شرکت به دلیل دانلود غیرقانونی همان کتابها جریمه شد.
تفاوت دیدگاه حقوقی در ژاپن
انجمن CODA تأکید دارد که چنین عملی در ژاپن میتواند به عنوان نقض صریح حق نشر تلقی شود و این تفاوت نگرش، پیچیدگی بیشتری به ماجرا میافزاید.
چشمانداز آینده دعاوی هوش مصنوعی و کپیرایت
با افزایش دسترسی عمومی به ابزارهایی مانند Sora، احتمال شکایتهای مشابه از سوی ناشران، استودیوها و بنیادهای دیگر در سراسر جهان بالا میرود. این پرونده میتواند نقطه عطفی در تعیین مرزهای قانونی آموزش مدلهای مولد باشد و شرکتهای هوش مصنوعی را مجبور کند سیاستهای شفافتری برای کسب مجوز اتخاذ کنند.
