در دنیای سریعالتطور هوش مصنوعی، مرورگرهای هوشمندی مانند ChatGPT Atlas از OpenAI و Comet از Perplexity، تجربه وبگردی را دگرگون کردهاند. این ابزارها با قابلیتهای agentic – یعنی توانایی انجام خودکار وظایف مانند خلاصهسازی صفحات، مدیریت ایمیل یا حتی خرید آنلاین – کاربران را به سطح جدیدی از کارایی رساندهاند. اما پشت این نوآوریها، سایهای تاریک وجود دارد: حمله پرامپت اینجکشن.
به گزارش ایروتایم – irotime، شرکت OpenAI اخیراً در یک پست وبلاگی صریح اعلام کرده که این نوع حمله سایبری، که در آن مهاجمان دستورات مخرب را در محتوای وب، ایمیل یا اسناد پنهان میکنند، احتمالاً هرگز به طور کامل قابل حذف نیست. این آسیبپذیری شبیه به کلاهبرداریهای اجتماعی در وب معمولی است؛ همیشه وجود خواهد داشت و نیاز به دفاع مداوم دارد.
پرامپت اینجکشن چیست و چرا خطرناک است؟
پرامپت اینجکشن زمانی رخ میدهد که یک مدل زبانی بزرگ (LLM) مانند GPT یا مدلهای مشابه، نمیتواند بین دستورات اصلی کاربر و محتوای مخرب تمایز قائل شود. مهاجم میتواند متنهایی نامرئی (با رنگ سفید روی زمینه سفید) یا پنهان در تصاویر قرار دهد تا هوش مصنوعی را فریب دهد. نتیجه؟ نشت اطلاعات حساس، ارسال ایمیلهای ناخواسته یا حتی اقدامات مالی خطرناک.
- مثال عملی: فرض کنید ایمیلی مخرب به صندوق ورودی شما میرسد که حاوی دستور پنهان برای ارسال اسناد مالی به مهاجم است. وقتی از مرورگر AI میخواهید ایمیلها را چک کند، ممکن است فریب بخورد و اطلاعات را افشا کند.
- گزارش شرکت Brave نشان میدهد که این مشکل سیستماتیک است و مدلهای هوش مصنوعی در تمایز بین “محتوا” و “دستور” ناتوان هستند.
اقدامات OpenAI برای مقابله
OpenAI رویکردی فعال اتخاذ کرده:
- ساخت یک “مهاجم خودکار” مبتنی بر LLM برای شبیهسازی حملات جدید.
- آموزش مدلها با روشهای تقویتشده (reinforcement learning) برای مقاومت بیشتر.
- همکاری با شرکای خارجی برای تست و تقویت امنیت پیش از انتشار.
با این حال، شرکت تأکید دارد که حالت agentic در Atlas سطح تهدید را افزایش میدهد و کاربران باید دسترسیها را محدود کنند – مثلاً استفاده از حالت “logged out” برای کارهای حساس.
دیدگاههای دیگر کارشناسان
مرکز ملی امنیت سایبری بریتانیا (NCSC) نیز چند هفته پیش هشدار مشابهی داد: پرامپت اینجکشن ممکن است هرگز کاملاً کاهش نیابد و میتواند منجر به نقض دادههای گسترده شود. این دیدگاه با گزارشهای Brave همخوانی دارد که Comet و سایر مرورگرهای AI را آسیبپذیر میداند.
در نهایت، این خبر یادآوری میکند که پیشرفت هوش مصنوعی با چالشهای امنیتی همراه است. کاربران باید هوشیار باشند، دسترسیهای agent را محدود کنند و همیشه اقدامات حساس را خودشان تأیید نمایند. آینده وب هوشمند روشن است، اما امنیت آن نیاز به تلاش مشترک دارد.
