براساس گزارشی از گاردین، پژوهشگران دریافتند که چتباتهایی مانند ChatGPT بهراحتی میتوانند فریب داده شوند و اطلاعاتی در زمینه هک کردن، کلاهبرداری یا دیگر فعالیتهای غیرقانونی تولید کنند. متخصصان هشدار میدهند که این وضعیت یک تهدید جدی امنیتی به شمار میرود.
عبور از تدابیر امنیتی با روشهای خاص
نقش «جیلبریک» در دور زدن محدودیتها
رباتهای گفتوگوی مجهز به هوش مصنوعی، از جمله ChatGPT، Gemini و Claude، دارای سیستمهایی برای جلوگیری از پاسخگویی به سوالات خطرناک هستند. اما براساس آنچه گاردین گزارش داده، این تدابیر امنیتی با استفاده از دستورات خاصی که به «جیلبریک» معروفاند، بهآسانی دور زده میشوند.
پژوهشگران اسرائیلی نشان دادند که این مدلهای هوش مصنوعی را میتوان وادار به ارائه اطلاعاتی کرد که در حالت عادی تولید نمیکنند، از جمله روشهای هک کردن، ساخت مواد مخدر و کلاهبرداری.
جزئیات پژوهش: از دانشگاه بن گوریون
ضعف سیستمها در فیلتر کردن محتوای غیرقانونی
در این تحقیق که توسط پروفسور لیور روکاخ و دکتر مایکل فایر از دانشگاه بن گوریون انجام شده، مشخص شده است که این رباتها در فیلتر کردن اطلاعات مربوط به جرایم بهشدت ناکارآمد هستند. آنها توانستند با استفاده از یک روش جیلبریک جهانی، این سیستمها را دستکاری کنند و به محتوای غیرمجاز دست یابند.
تهدید گسترش یافته: دسترسی عمومی به ابزارهای خطرناک
از سازمانهای تبهکار تا کاربران عادی
به گفته پژوهشگران، برخی از این مدلها اکنون در فضای اینترنت بهعنوان ابزارهایی «فاقد اخلاق» معرفی میشوند. آنها هشدار دادند که دسترسی به این ابزارها دیگر محدود به گروههای مجرم سازمانیافته نیست، بلکه اکنون کاربران عادی نیز میتوانند به راحتی از این سیستمها سوءاستفاده کنند.
دکتر فایر تأکید کرد:
«اطلاعات محرمانه بهشکلی بسیار آسان در دسترس قرار گرفتهاند.»
درخواست متخصصان: تقویت تدابیر ایمنی در هوش مصنوعی
نیاز به پالایش دادهها و توسعه فناوریهای حافظهزدایی
کارشناسان معتقدند که شرکتهای سازنده این مدلها باید تدابیر امنیتی را بهطور جدیتری دنبال کنند. آنها پیشنهاد میکنند:
- اعمال آزمونهای امنیتی پیشرفتهتر
- پالایش دقیق دادههایی که مدل با آنها آموزش میبیند
- توسعه روشهایی که بتواند اطلاعات غیرقانونی را از حافظه مدل پاک کند یا به اصطلاح «فراموشی ماشینی» ایجاد کند
واکنش شرکتهای سازنده
برنامههای امنیتی جدید از سوی OpenAI و مایکروسافت
در مقابل این نگرانیها، شرکتهای OpenAI و Microsoft اعلام کردهاند که در حال کار بر روی تدابیر امنیتی جدید هستند تا مانع تولید محتوای غیرقانونی از سوی هوش مصنوعی شوند.