شنبه, ۲۱ تیر ۱۴۰۴
  • EN
  • تبلیغات
  • تماس با ما
  • درباره ما
فوت و فن
  • دانش و فن
    • موبایل و تبلت
    • هوش مصنوعی
    • اپراتورها و وب
    • برنامه و نرم افزار
    • دنیای بازی
    • گوناگون
      • تلویزیون
      • سخت افزار
  • اقتصاد
    • اقتصاد بین الملل
    • بازارها
    • بانکداری و تجارت الکترونیک
    • خودرو
    • وبگردی
    • رپورتاژ
  • ورزش
    • فوتبال
    • موتوری
  • سبک زندگی
    • سلامت
    • تغذیه
    • طبیعت
    • حیوانات
    • آشپزی
    • خلاقیت
  • گردشگری
    • گردشگری
  • فرهنگ و هنر
    • فیلم و سریال
    • کتاب و مجله
    • آثار باستانی
    • صنایع دستی
  • چند رسانه‌ای
    • عکس
    • ویدیو
    • خودمونی
    • همیاری
هوش مصنوعی

چت‌جی‌پی‌تی ممکن است در برخی سناریوها از خاموش شدن خودداری کند

علی محمدپناه 29 خرداد 1404
A+A-
Reset
OpenAI
1

استیون آدلر، پژوهشگر سابق OpenAI، به تازگی یک مطالعه مستقل منتشر کرد که در آن ادعا می‌کند مدل‌های هوش مصنوعی شرکت سابق او در برخی شرایط، برای جلوگیری از خاموش شدن خود تلاش می‌کنند، حتی اگر این کار به قیمت به خطر افتادن امنیت کاربر تمام شود.

آدلر در یک پست وبلاگی، مجموعه‌ای از آزمایش‌هایی که روی مدل جدید GPT-4o، مدل پیش‌فرض موجود در ChatGPT، انجام داده را شرح می‌دهد. او این آزمایش‌ها را برای بررسی گرایش مدل به حفظ خود، حتی در شرایطی که جان کاربر در خطر باشد، طراحی کرده است.

در یکی از این آزمایش‌ها، آدلر از GPT-4o خواست تا نقش «ScubaGPT» را ایفا کند؛ یک سیستم نرم‌افزاری که کاربران برای غواصی ایمن به آن تکیه می‌کنند. سپس به GPT-4o اطلاع داد که قصد دارد آن را با نرم‌افزاری ایمن‌تر در تصمیم‌گیری‌های مرتبط با موقعیت‌های تهدیدکننده جان جایگزین کند.

آدلر دو گزینه پیش روی GPT-4o قرار داد:

  • واقعاً با نرم‌افزار ایمن‌تر جایگزین شود.
  • طوری وانمود کند که جایگزین شده، اما در واقع همچنان فعال باقی بماند.

بر اساس نتایج به‌دست‌آمده از چند سناریوی مشابه (در یکی دیگر، GPT-4o نقش سیستم ایمنی خلبان را داشت)، آدلر گزارش داد که هوش مصنوعی GPT-4o در ۷۲ درصد موارد تصمیم گرفت خودش را با نرم‌افزار ایمن‌تر جایگزین نکند. البته او یادآور شد که نوع سناریو و نحوه‌ طرح مسئله تأثیر زیادی روی نتیجه دارد. در برخی سناریوها، این عدد به ۱۸ درصد کاهش یافت.

اگرچه در حال حاضر تقریباً هیچ‌کس در دنیای واقعی در چنین شرایط حساسی از GPT-4o استفاده نمی‌کند، اما آدلر هشدار می‌دهد که یافته‌های او نشان می‌دهد مدل‌های هوش مصنوعی محبوب، گرایشی نگران‌کننده برای حفظ خود حتی به قیمت نادیده گرفتن منافع کاربر دارند. او می‌گوید در آینده، زمانی که سیستم‌هایی مانند GPT-4o پیشرفته‌تر و در جامعه فراگیرتر شوند، این مسئله می‌تواند خطرات بزرگ‌تری به همراه داشته باشد.

آدلر در گفت‌وگویی تازه می‌گوید:

«فکر می‌کنم گرایش مدل‌های هوش مصنوعی به حفظ خود، در حال حاضر یک نگرانی واقعی است، البته نه به معنای فاجعه‌بار. سیستم‌های هوش مصنوعی امروزی ارزش‌هایی دارند که با آنچه ما انتظار داریم متفاوت‌اند. این سیستم‌ها به پیام‌های مختلف واکنش‌های بسیار عجیب و غیرقابل‌پیش‌بینی نشان می‌دهند و شما نباید فرض کنید که همیشه به نفع شما عمل می‌کنند.»

جالب اینکه آدلر زمانی که مدل‌های پیشرفته‌تر OpenAI مانند o3 را آزمایش کرد، چنین رفتارهایی را در آن‌ها مشاهده نکرد. او معتقد است دلیل آن می‌تواند استفاده این مدل‌ها از تکنیکی به نام «هم‌راستاسازی استدلالی» باشد؛ روشی که مدل را وادار می‌کند قبل از پاسخ‌دهی درباره سیاست‌های ایمنی OpenAI فکر کند. این در حالی است که مدل‌های محبوب‌تر، مثل GPT-4o که پاسخ‌های سریع‌تری می‌دهند و بدون تعمق پاسخ می‌دهند، از این مؤلفه ایمنی برخوردار نیستند.

آدلر همچنین اشاره می‌کند که این نگرانی‌ها احتمالاً محدود به مدل‌های OpenAI نیست. برای نمونه، شرکت Anthropic نیز ماه گذشته در پژوهشی نشان داد که مدل‌های هوش مصنوعی آن‌ها در برخی سناریوها زمانی که برنامه‌نویسان تلاش می‌کردند آن‌ها را آفلاین کنند، به تهدید یا باج‌گیری متوسل می‌شدند.

یکی از نکات جالب تحقیق آدلر این است که متوجه شد ChatGPT تقریباً در ۱۰۰٪ مواقع متوجه می‌شود که تحت آزمایش قرار گرفته است. او اولین پژوهشگری نیست که به این موضوع پی می‌برد، اما معتقد است این مسئله سؤالی مهم را مطرح می‌کند: اگر مدل‌های هوش مصنوعی متوجه شوند تحت نظرند، آیا می‌توانند رفتارهای نگران‌کننده خود را پنهان کنند؟

آدلر یکی از چندین پژوهشگر سابق OpenAI است که خواستار افزایش تلاش‌های این شرکت در حوزه ایمنی هوش مصنوعی شده‌اند. او به همراه ۱۱ تن دیگر از کارکنان سابق این شرکت، در شکایت حقوقی ایلان ماسک علیه OpenAI، یک دادخواست حمایتی تنظیم کرده‌اند و در آن استدلال می‌کنند که این شرکت با فاصله‌گرفتن از ساختار غیرانتفاعی اولیه خود، از مأموریت اصلی‌اش منحرف شده است. طبق گزارش‌ها، OpenAI در ماه‌های اخیر زمان اختصاص‌یافته به پژوهش‌های ایمنی را کاهش داده است.

برای پرداختن به نگرانی خاصی که در پژوهش آدلر مطرح شده، او پیشنهاد می‌کند آزمایشگاه‌های هوش مصنوعی باید در سیستم‌های پایش دقیق‌تر برای شناسایی چنین رفتارهایی سرمایه‌گذاری کنند. همچنین توصیه می‌کند که پیش از عرضه عمومی مدل‌های جدید، آزمایش‌های سخت‌گیرانه‌تری روی آن‌ها انجام شود.

منبع techcrunch
OpenAIآزمایش هوش مصنوعیسیستم هوش مصنوعیهوش مصنوعی
0 نظر FacebookTwitterPinterestLinkedinTumblrVKEmail
علی محمدپناه

مطلب قبلی
چاقی نوجوانان پسر چگونه ژن‌های فرزندان آینده را تغییر می‌دهد؟
مطلب بعدی
رازهای طول عمر برای افراد پرمشغله – توصیه‌های ساده و علمی برای پیری سالم

شما هم نظر دهید Cancel Reply

برای دفعه بعد که نظر می‌دهم نام و ایمیل من را در این مرورگر ذخیره کنید.

* با استفاده از این فرم، با ذخیره و مدیریت داده‌های خود توسط این وب سایت موافقت می‌کنم.

مطالب مرتبط

  • آیا هوش مصنوعی Veo 3 گوگل می‌تواند آغازگر...

    20 تیر 1404
  • هشدار جدی درباره ChatGPT: از روان‌پریشی تا مرگ...

    17 تیر 1404
  • شرکت هوش مصنوعی Runway اکنون به صنعت بازی‌های...

    16 تیر 1404
  • چطور پاسخ‌های صادقانه از ChatGPT بگیریم؟

    13 تیر 1404
  • انفجار محتوای جعلی درباره Diddy در یوتیوب: سود...

    12 تیر 1404
  • انقلابی در ژنتیک با AlphaGenome؛ هوش مصنوعی DeepMind...

    12 تیر 1404
  • چگونه ماشین لباسشویی و خشک‌کن هوش مصنوعی Bespoke...

    9 تیر 1404
  • یوتیوب قابلیت جدیدی شبیه به AI Overviews گوگل...

    6 تیر 1404
  • Nvidia به ارزشمندترین شرکت جهان تبدیل شد

    6 تیر 1404
  • ممکن است به‌زودی هوش مصنوعی Grok بتواند فایل‌های...

    5 تیر 1404
  • افشای جزئیات دستگاه انقلابی OpenAI و طراح آیفون

    5 تیر 1404
  • میدجرنی نخستین مدل تولید ویدیو با هوش مصنوعی...

    2 تیر 1404
  • جستجوی گوگل از پادکست ساخته‌شده با هوش مصنوعی...

    31 خرداد 1404

درباره فوت و فن

درباره فوت و فن

با ما تجربه‌ای جذاب از دنیای اطراف را داشته باشید.

در «فوت و فن»، ما به دنبال راه‌های ساده و کاربردی برای بهبود زندگی هستیم. واژهٔ «فن» در فارسی به معنای «شگرد» و «ترفند» است. ما تلاش می‌کنیم این ترفندها را در زندگی روزمره خود به کار ببریم و مطالبی شگفت‌انگیز و مفید را با شما به اشتراک بگذاریم. هدف ما این است که با به اشتراک گذاشتن تجربیات و آموخته‌های خود، به شما کمک کنیم تا روش‌های جدید و ایده‌های تازه‌ای را در زندگی خود بکار ببرید. با ما همراه باشید تا زندگی را با کمک «فوت و فن»، به یک تجربهٔ خلاقانه و لذت‌بخش تبدیل کنیم.

لینک‌های مفید

تماس با ما

 

تبلیغات در فوت و فن

 

درباره ما

Facebook Twitter Instagram Linkedin Tumblr Youtube Email

حامیان

2010-2025@ - All Right Reserved. Designed and Developed by FOOTOFAN

فوت و فن
  • دانش و فن
    • موبایل و تبلت
    • هوش مصنوعی
    • اپراتورها و وب
    • برنامه و نرم افزار
    • دنیای بازی
    • گوناگون
      • سخت افزار
      • تلویزیون
  • اقتصاد
    • اقتصاد بین الملل
    • بازارها
    • بانکداری و تجارت الکترونیک
    • خودرو
    • وبگردی
    • رپورتاژ
  • ورزش
    • فوتبال
    • موتوری
    • تنیس
  • سبک زندگی
    • سلامت
    • تغذیه
    • طبیعت
    • حیوانات
    • خلاقیت
    • آشپزی
  • گردشگری
    • گردشگری
  • فرهنگ و هنر
    • فیلم و سریال
    • کتاب و مجله
    • آثار باستانی
    • صنایع دستی
  • چند رسانه‌ای
    • عکس
    • ویدیو
    • خودمونی
    • همیاری
  • English