يکشنبه ۲ دی ۱۴۰۳ , 22 Dec 2024
جالب است ۰
محققان امنیت سایبری ادعا کرده‌اند که هکرها می‌توانند چت‌های رمزگذاری‌شده از چت‌بات‌های هوش مصنوعی را بخوانند.
منبع : ArsTechnica
محققان امنیت سایبری ادعا کرده‌اند که هکرها می‌توانند چت‌های رمزگذاری‌شده از چت‌بات‌های هوش مصنوعی را بخوانند.
 
به گزارش افتانا، دستیارهای هوش مصنوعی تقریباً از بیشتر از یک سال پیش به‌طور گسترده در دسترس هستند و کاربران زیادی اطلاعات موردنیاز روزانه خود را با کمک آن‌ها کسب می‌کنند. بااین‌حال، روند پیشرفت این فناوری چندان بدون نگرانی نبوده است و حالا محققان حمله‌ای را ابداع کرده‌اند که می‌تواند پاسخ‌های ارائه‌شده توسط تمام چت‌بات‌ها به‌جز Gemini را با دقت قابل‌توجهی رمزگشایی کند.
 
در این تکنیک از یک کانال جانبی استفاده می‌شود که در تمام دستیارهای هوش مصنوعی، به‌استثنای گوگل جمینای (Gemini) موجود است. سپس نتایج نسبتاً خام به‌دست‌آمده از این طریق، با کمک مدل‌های زبان بزرگی که مخصوصاً برای این کار آموزش داده شده‌اند، اصلاح می‌شوند.
 
یسروئل میرسکی، رئیس آزمایشگاه تحقیقات هوش مصنوعی Offensive AI Research Lab توضیح می‌دهد: درحال‌حاضر همه می‌توانند چت‌های خصوصی ارسال‌شده از ChatGPT و سایر سرویس‌ها را بخوانند. همه یعنی هرکسی که از Wi-Fi یا LAN شما استفاده می‌کند یا حتی یک عامل خرابکار در اینترنت، یعنی تمام کسانی که بتوانند ترافیک شما را مشاهده کنند.
 
او در ادامه می‌گوید: این حمله غیرفعال است و می‌تواند بدون اطلاع OpenAI یا مشتری آن‌ها اتفاق بیفتد. OpenAI برای جلوگیری از این نوع حملات، ترافیک خود را رمزگذاری می‌کند، اما تحقیقات ما نشان می‌دهد که روش OpenAI در استفاده از رمزگذاری ناقص است و بنابراین محتوای پیام‌ها فاش می‌شود.
 
هرچند حملات کانال جانبی نسبت به سایر هک‌ها کمتر تهاجمی هستند، اما همان‌طور که در این گزارش گفته شده است، می‌توانند تقریباً یک پیام چت‌بات را با دقت 55 درصدی استنباط کنند. با این شرایط، هر سؤالی که از مدل‌های هوش مصنوعی نظیر ChatGPT می‌پرسید، ممکن است توسط هکرها تشخیص داده شود.
 
به گفته محققان، این حمله معمولاً به‌دلیل استفاده چت‌بات‌ها از داده‌های رمزگذاری‌شده تحت عنوان «توکن» رخ می‌دهد که به مدل‌های زبان بزرگ کمک می‌کند تا ورودی‌های خود را ترجمه کنند و به آن‌ها پاسخ دهند.
 
مایکروسافت در بیانیه‌ای به‌طور کلی وجود این نقص در هوش مصنوعی Copilot را تأیید کرده است، اما می‌گوید این نقص خطری برای اطلاعات شخصی کاربران به‌همراه ندارد. سخنگوی مایکروسافت می‌گوید: بعید است جزئیات خاصی مانند نام‌ها به این طریق تشخیص داده شود. ما متعهد هستیم که به محافظت از مشتریان خود در برابر این حملات احتمالی کمک کنیم و با به‌روزرسانی به آن‌ها رسیدگی خواهیم کرد.
کد مطلب : 22099
https://aftana.ir/vdcb9gb5.rhb59piuur.html
ارسال نظر
نام شما
آدرس ايميل شما
کد امنيتی