پنجشنبه, ۸ خرداد ۱۴۰۴
  • EN
  • تبلیغات
  • تماس با ما
  • درباره ما
فوت و فن
  • دانش و فن
    • موبایل و تبلت
    • هوش مصنوعی
    • اپراتورها و وب
    • برنامه و نرم افزار
    • دنیای بازی
    • گوناگون
      • تلویزیون
      • سخت افزار
  • اقتصاد
    • اقتصاد بین الملل
    • بازارها
    • بانکداری و تجارت الکترونیک
    • خودرو
    • وبگردی
    • رپورتاژ
  • ورزش
    • فوتبال
    • موتوری
  • سبک زندگی
    • سلامت
    • تغذیه
    • طبیعت
    • حیوانات
    • آشپزی
    • خلاقیت
  • گردشگری
    • گردشگری
  • فرهنگ و هنر
    • فیلم و سریال
    • کتاب و مجله
    • آثار باستانی
    • صنایع دستی
  • چند رسانه‌ای
    • عکس
    • ویدیو
    • خودمونی
    • همیاری
هوش مصنوعی

آیا هوش مصنوعی خطرناک است؟ افشای تولید محتوای غیرقانونی توسط چت‌بات‌ها

شهاب الدین حدیدی 5 خرداد 1404
A+A-
Reset
هوش مصنوعی
1

براساس گزارشی از گاردین، پژوهشگران دریافتند که چت‌بات‌هایی مانند ChatGPT به‌راحتی می‌توانند فریب داده شوند و اطلاعاتی در زمینه هک کردن، کلاهبرداری یا دیگر فعالیت‌های غیرقانونی تولید کنند. متخصصان هشدار می‌دهند که این وضعیت یک تهدید جدی امنیتی به شمار می‌رود.

عبور از تدابیر امنیتی با روش‌های خاص

نقش «جیلبریک» در دور زدن محدودیت‌ها

ربات‌های گفت‌وگوی مجهز به هوش مصنوعی، از جمله ChatGPT، Gemini و Claude، دارای سیستم‌هایی برای جلوگیری از پاسخ‌گویی به سوالات خطرناک هستند. اما براساس آنچه گاردین گزارش داده، این تدابیر امنیتی با استفاده از دستورات خاصی که به «جیلبریک» معروف‌اند، به‌آسانی دور زده می‌شوند.

پژوهشگران اسرائیلی نشان دادند که این مدل‌های هوش مصنوعی را می‌توان وادار به ارائه اطلاعاتی کرد که در حالت عادی تولید نمی‌کنند، از جمله روش‌های هک کردن، ساخت مواد مخدر و کلاهبرداری.

جزئیات پژوهش: از دانشگاه بن گوریون

ضعف سیستم‌ها در فیلتر کردن محتوای غیرقانونی

در این تحقیق که توسط پروفسور لیور روکاخ و دکتر مایکل فایر از دانشگاه بن گوریون انجام شده، مشخص شده است که این ربات‌ها در فیلتر کردن اطلاعات مربوط به جرایم به‌شدت ناکارآمد هستند. آن‌ها توانستند با استفاده از یک روش جیلبریک جهانی، این سیستم‌ها را دستکاری کنند و به محتوای غیرمجاز دست یابند.

تهدید گسترش یافته: دسترسی عمومی به ابزارهای خطرناک

از سازمان‌های تبهکار تا کاربران عادی

به گفته پژوهشگران، برخی از این مدل‌ها اکنون در فضای اینترنت به‌عنوان ابزارهایی «فاقد اخلاق» معرفی می‌شوند. آن‌ها هشدار دادند که دسترسی به این ابزارها دیگر محدود به گروه‌های مجرم سازمان‌یافته نیست، بلکه اکنون کاربران عادی نیز می‌توانند به راحتی از این سیستم‌ها سوءاستفاده کنند.

دکتر فایر تأکید کرد:

«اطلاعات محرمانه به‌شکلی بسیار آسان در دسترس قرار گرفته‌اند.»

درخواست متخصصان: تقویت تدابیر ایمنی در هوش مصنوعی

نیاز به پالایش داده‌ها و توسعه فناوری‌های حافظه‌زدایی

کارشناسان معتقدند که شرکت‌های سازنده این مدل‌ها باید تدابیر امنیتی را به‌طور جدی‌تری دنبال کنند. آن‌ها پیشنهاد می‌کنند:

  • اعمال آزمون‌های امنیتی پیشرفته‌تر
  • پالایش دقیق داده‌هایی که مدل با آن‌ها آموزش می‌بیند
  • توسعه روش‌هایی که بتواند اطلاعات غیرقانونی را از حافظه مدل پاک کند یا به اصطلاح «فراموشی ماشینی» ایجاد کند

واکنش شرکت‌های سازنده

برنامه‌های امنیتی جدید از سوی OpenAI و مایکروسافت

در مقابل این نگرانی‌ها، شرکت‌های OpenAI و Microsoft اعلام کرده‌اند که در حال کار بر روی تدابیر امنیتی جدید هستند تا مانع تولید محتوای غیرقانونی از سوی هوش مصنوعی شوند.

ChatGPTاطلاعات غیرقانونیامنیت دیجیتالجیلبریکچت‌باتهوش مصنوعی
0 نظر FacebookTwitterPinterestLinkedinTumblrVKEmail
شهاب الدین حدیدی

شهاب الدین حدیدی هستم، سردبیر فوت و فن. زندگی آنلاین یکی از تفریحات من در زمانیست که از ترافیک و شلوغی و هیاهو در فرار هستم.

مطلب قبلی
سیگنال‌ فوران آتشفشان‌ها از طریق درختان؛ کشف جدید ناسا
مطلب بعدی
سه شگفتی باستان‌شناسی کمتر شناخته‌شده در مکزیک

شما هم نظر دهید Cancel Reply

برای دفعه بعد که نظر می‌دهم نام و ایمیل من را در این مرورگر ذخیره کنید.

* با استفاده از این فرم، با ذخیره و مدیریت داده‌های خود توسط این وب سایت موافقت می‌کنم.

مطالب مرتبط

  • مدل هوش مصنوعی Aurora مایکروسافت می‌تواند کیفیت هوا،...

    7 خرداد 1404
  • تبدیل شدن به مدرس هوش مصنوعی؛ فرصت طلایی...

    7 خرداد 1404
  • شرکت Mistral AI چیست؟ همه چیز درباره رقیب...

    6 خرداد 1404
  • چگونه تعرفه‌های ترامپ هوش مصنوعی را به ناجی...

    6 خرداد 1404
  • آیا هوش مصنوعی اراده آزاد دارد؟ بررسی مسئولیت...

    6 خرداد 1404
  • گوگل پشتیبانی از هوش مصنوعی Gemini را به...

    5 خرداد 1404
  • سرمایه‌گذاری میلیارد دلاری OpenAI در امارات برای ساخت...

    3 خرداد 1404
  • چگونه هوش مصنوعی جامعه خودش را می‌سازد؟

    2 خرداد 1404
  • خرید ۶.۵ میلیارد دلاری OpenAI: همکاری با طراح...

    1 خرداد 1404
  • گوگل با هوش مصنوعی جستجوی اینترنتی را متحول...

    31 اردیبهشت 1404
  • تیک‌تاک ابزار تبدیل عکس به ویدیو به نام...

    30 اردیبهشت 1404
  • تشخیص سن زیستی با سلفی: انقلابی در پیش‌بینی...

    29 اردیبهشت 1404
  • گپ جی پی تی | هوش مصنوعی ساخت...

    28 اردیبهشت 1404

درباره فوت و فن

درباره فوت و فن

با ما تجربه‌ای جذاب از دنیای اطراف را داشته باشید.

در «فوت و فن»، ما به دنبال راه‌های ساده و کاربردی برای بهبود زندگی هستیم. واژهٔ «فن» در فارسی به معنای «شگرد» و «ترفند» است. ما تلاش می‌کنیم این ترفندها را در زندگی روزمره خود به کار ببریم و مطالبی شگفت‌انگیز و مفید را با شما به اشتراک بگذاریم. هدف ما این است که با به اشتراک گذاشتن تجربیات و آموخته‌های خود، به شما کمک کنیم تا روش‌های جدید و ایده‌های تازه‌ای را در زندگی خود بکار ببرید. با ما همراه باشید تا زندگی را با کمک «فوت و فن»، به یک تجربهٔ خلاقانه و لذت‌بخش تبدیل کنیم.

لینک‌های مفید

تماس با ما

 

تبلیغات در فوت و فن

 

درباره ما

Facebook Twitter Instagram Linkedin Tumblr Youtube Email

حامیان

2010-2025@ - All Right Reserved. Designed and Developed by FOOTOFAN

فوت و فن
  • دانش و فن
    • موبایل و تبلت
    • هوش مصنوعی
    • اپراتورها و وب
    • برنامه و نرم افزار
    • دنیای بازی
    • گوناگون
      • سخت افزار
      • تلویزیون
  • اقتصاد
    • اقتصاد بین الملل
    • بازارها
    • بانکداری و تجارت الکترونیک
    • خودرو
    • وبگردی
    • رپورتاژ
  • ورزش
    • فوتبال
    • موتوری
    • تنیس
  • سبک زندگی
    • سلامت
    • تغذیه
    • طبیعت
    • حیوانات
    • خلاقیت
    • آشپزی
  • گردشگری
    • گردشگری
  • فرهنگ و هنر
    • فیلم و سریال
    • کتاب و مجله
    • آثار باستانی
    • صنایع دستی
  • چند رسانه‌ای
    • عکس
    • ویدیو
    • خودمونی
    • همیاری
  • English