تکنولوژیهوش مصنوعی

۶۴٪ از کارشناسان امنیتی که در یک نظرسنجی شرکت کرده‌اند، معتقدند که چت‌جی‌پی‌تی (ChatGPT) در تشخیص آسیب‌پذیری‌های امنیتی دقت کافی را ندارد!

گزارش پلتفرم مرتبط با پاداش بگ باگ و خدمات امنیتی ایمیونفای حاکی از این است که اکثر کارشناسان امنیتی که در نظرسنجی شرکت کردند، از چت‌جی‌پی‌تی (ChatGPT) در حوزه امنیت وب۳ استفاده کردند و پتانسیل آن را ارزیابی کردند، اما نگرانی‌هایی درباره توانایی تشخیص آسیب‌پذیری‌های امنیتی این ابزار دارند.

چت‌جی‌پی‌تی یک چت‌بات هوش مصنوعی از شرکت OpenAI است که در نوامبر ۲۰۲۲ عرضه شد. در دو ماه پس از عرضه، تعداد کاربران آن به ۱۰۰ میلیون نفر رسید – اما با افزایش تعداد کاربران، نگرانی‌ها درباره امنیت، حریم خصوصی و اخلاق این ابزار همچنین افزایش یافت.

۱۶۵ نفر از فعال‌ترین کارشناسان امنیتی در جامعه امنیت وب۳ در نظرسنجی ایمیونفای در ماه مه ۲۰۲۳ شرکت کردند، به گزارش Cryptonews. گزارش جدید ‘گزارش امنیت چت‌جی‌پی‌تی’ در ماه ژوئن تدوین شد.

گزارش متوجه شد که در کارشناسان امنیتی، به نسبت بالایی از چت‌جی‌پی‌تی استفاده شده است. ۷۶.۴٪ از پاسخ‌دهندگان از این فناوری استفاده کرده‌اند، در حالی که ۳۶.۷٪ آن را در جریان کار روزانه خود گنجانده‌اند.

درباره موارد استفاده، ۷۴٪ گفتند که این فناوری نوآورانه بیشترین استفاده را در اهداف آموزشی دارد.

در گزارش آمده است که…

اگرچه بررسی هوشمند قرارداد‌ها [60.6٪] و کشف آسیب‌پذیری‌ها [46.7٪] به عنوان موارد استفاده‌های خاص توسط جامعه مورد ارزیابی قرار می‌گیرند، اما در عوض، بیشترین نگرانی‌ها به دقت محدود در تشخیص آسیب‌پذیری‌های امنیتی [64.2٪]، کمبود دانش دامنه‌ای [61.2٪] و مشکل در مدیریت بررسی‌های بزرگ مقیاس [61.2٪] اشاره شده‌اند.

۶۴٪ از کارشناسان امنیتی که در نظرسنجی شرکت کرده‌اند، معتقدند که چت‌جی‌پی‌تی (ChatGPT) در تشخیص آسیب‌پذیری‌های امنیتی دقت کافی را ندارد!
منبع: ایمیونفای، گزارش امنیت چت‌جی‌پی‌تی

بر اساس گزارش، ۷۶.۴٪ از کارشناسان امنیتی از چت‌جی‌پی‌تی برای انجام امور امنیتی استفاده کردند.

در ارزیابی سطح اعتماد خود به توانایی چت‌جی‌پی‌تی در تشخیص آسیب‌پذیری‌های امنیتی وب۳، ۳۵٪ گفتند که اعتماد متوسط دارند، ۲۹٪ اعتماد نسبتاً دارند و ۲۶٪ اعتماد ندارند.

۵۲٪ گفتند که استفاده عمومی از چت‌جی‌پی‌تی مشکلات امنیتی را با خود به همراه دارد، شامل فیشینگ، تقلب، مهندسی اجتماعی و توسعه رنسامور و نرم‌افزارهای مخرب.

۶۴٪ از کارشناسان امنیتی که در نظرسنجی شرکت کرده‌اند، معتقدند که چت‌جی‌پی‌تی (ChatGPT) در تشخیص آسیب‌پذیری‌های امنیتی دقت کافی را ندارد!
منبع: ایمیونفای، گزارش امنیت چت‌جی‌پی‌تی

بیشترین تعداد کارشناسان، یعنی ۷۵٪، اظهار داشتند که چت‌جی‌پی‌تی (ChatGPT) پتانسیل بهبود تحقیقات امنیت وب۳ را دارد، اما برای رسیدن به این هدف، نیاز به تنظیمات و آموزش‌های بیشتری وجود دارد.

همچنین بیشترین اکثریت، یعنی ۶۸٪، چت‌جی‌پی‌تی را به عنوان ابزاری برای امنیت وب۳ به همکاران خود توصیه می‌کنند.

گزارش‌های باگ‌های تولید شده توسط چت‌جی‌پی‌تی مانند اسپم عمل می‌کنند.
ایمیونفای اعلام کرده است که بیش از ۶۰ میلیارد دلار از دارایی‌های کاربری را حفاظت می‌کند؛ بیش از ۷۵ میلیون دلار جایزه به کل پاداش‌ها پرداخت شده و بیش از ۲۵ میلیارد دلار از دارایی‌های کاربری را نجات داده است. هنوز هم بیش از ۱۵۴ میلیون دلار جایزه پاداش در دسترس است.

بعد از عرضه چت‌جی‌پی‌تی، پلتفرم شروع به دریافت “سیلی” گزارش‌های باگ کرد؛ و اگرچه این گزارش‌ها به خوبی نوشته شده بودند، ادعاهای مبنایی آنها “بی‌معنی” بودند؛ به اشاره به توابع غیرموجود یا مفاهیم برنامه‌نویسی کلیدی که موجود نبودند اشاره می‌کردند.

تاکنون، هیچ آسیب‌پذیری واقعی به‌وسیله‌ی گزارش باگ تولید شده توسط چت‌جی‌پی‌تی از طریق ارسال آن از طریق ایمیونفای کشف نشده است.

بنابراین، ایمیونفای اعلام کرده است که این گزارش‌ها معادل اسپم بوده‌اند. آنها توسط افرادی ارسال شده‌اند که مهارت‌های امنیتی ندارند و “امیدوارند که شکار جوایز پاداش باگ وب۳ به راحتی ممکن باشد، فقط کافیست چند واژه به چت‌جی‌پی‌تی وارد کنند.”

ایمیونفای قانون جدیدی را پیاده‌سازی کرده است که اکانت‌هایی که گزارش‌های تولید شده توسط چت‌جی‌پی‌تی ارسال کرده‌اند، به‌طور دائمی ممنوع می‌شوند.

نکته قابل توجه این است که ۲۱٪ از اکانت‌هایی که از ایمیونفای ممنوع شده‌اند، به خاطر ارسال گزارش‌های این نوع باگ هستند!

 

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا