جمعه, ۹ خرداد ۱۴۰۴
  • EN
  • تبلیغات
  • تماس با ما
  • درباره ما
فوت و فن
  • دانش و فن
    • موبایل و تبلت
    • هوش مصنوعی
    • اپراتورها و وب
    • برنامه و نرم افزار
    • دنیای بازی
    • گوناگون
      • تلویزیون
      • سخت افزار
  • اقتصاد
    • اقتصاد بین الملل
    • بازارها
    • بانکداری و تجارت الکترونیک
    • خودرو
    • وبگردی
    • رپورتاژ
  • ورزش
    • فوتبال
    • موتوری
  • سبک زندگی
    • سلامت
    • تغذیه
    • طبیعت
    • حیوانات
    • آشپزی
    • خلاقیت
  • گردشگری
    • گردشگری
  • فرهنگ و هنر
    • فیلم و سریال
    • کتاب و مجله
    • آثار باستانی
    • صنایع دستی
  • چند رسانه‌ای
    • عکس
    • ویدیو
    • خودمونی
    • همیاری
دانش و فنهوش مصنوعی

آیا مدل‌های هوش مصنوعی تهدیدی برای بقای انسان‌ها محسوب می‌شوند؟

شهاب الدین حدیدی 28 مرداد 1403
A+A-
Reset
هوش مصنوعی
1

ChatGPT و سایر مدل‌های زبانی بزرگ (LLM) فاقد توانایی یادگیری مستقل یا کسب مهارت‌های جدید به تنهایی هستند. این موضوع نشان می‌دهد که مدل‌های هوش مصنوعی، تهدیدی برای بقای بشریت به حساب نمی‌آیند. این نتیجه از تحقیق جدیدی که توسط دانشگاه بث و دانشگاه فنی دارمشتات در آلمان انجام شده، به دست آمده است.

این مطالعه به عنوان بخشی از مجموعه مقالات شصت و دومین نشست سالانه‌ی انجمن زبان‌شناسی محاسباتی (ACL 2024) منتشر شده است – کنفرانسی بین‌المللی در زمینه‌ی پردازش زبان طبیعی.

مدل‌های قابل کنترل، پیش‌بینی‌پذیر و ایمن

پژوهشگران دریافتند که در حالی که مدل‌های زبانی بزرگ می‌توانند به صورت سطحی دستورالعمل‌ها را دنبال کرده و در زبان‌آموزی مهارت نشان دهند، اما قادر به کسب مهارت‌های جدید بدون دستورالعمل صریح نیستند. بنابراین، این مدل‌ها ذاتاً قابل کنترل، پیش‌بینی‌پذیر و ایمن باقی می‌مانند.

به گفته‌ی کارشناسان، حتی زمانی که مدل‌های زبانی بزرگ با مجموعه داده‌های بزرگ‌تری آموزش می‌بینند، می‌توان بدون نگرانی‌های ایمنی قابل توجهی از آن‌ها استفاده کرد، هرچند که همچنان احتمال سوء استفاده از این فناوری وجود دارد.

مدل‌های هوش مصنوعی فاقد توانایی‌های استدلال پیچیده

با رشد این مدل‌ها، احتمالاً توانایی تولید زبان پیشرفته‌تر و پاسخ به درخواست‌های دقیق‌تر را خواهند داشت، اما به شدت غیرمحتمل است که بتوانند توانایی‌های استدلال پیچیده را توسعه دهند.

هاریش تایار مادابوشی، دانشمند کامپیوتر در دانشگاه بث و هم‌نویسنده‌ی این مطالعه جدید در مورد «توانایی‌های نوظهور» مدل‌های زبانی بزرگ گفت: «روایت غالب مبنی بر اینکه این نوع هوش مصنوعی تهدیدی برای بشریت است، مانع از پذیرش و توسعه‌ی گسترده این فناوری‌ها می‌شود و همچنین توجه را از مسائل واقعی که نیاز به تمرکز دارند، منحرف می‌کند.»

توانایی‌های نوظهور مدل‌های زبانی بزرگ

تیم تحقیقاتی به رهبری پروفسور ایرینا گورویچ در دانشگاه فنی دارمشتات در آلمان، آزمایشاتی را برای ارزیابی توانایی مدل‌های زبانی بزرگ در انجام وظایفی که قبلاً با آن‌ها مواجه نشده بودند – به اصطلاح توانایی‌های نوظهور – انجام دادند.

برای مثال، مدل‌های زبانی بزرگ می‌توانند به سوالاتی درباره موقعیت‌های اجتماعی پاسخ دهند بدون اینکه به طور خاص برای انجام این کار آموزش دیده یا برنامه‌ریزی شده باشند.

در حالی که تحقیقات قبلی پیشنهاد می‌کرد که این قابلیت ناشی از «آگاهی» مدل‌ها از موقعیت‌های اجتماعی است، پژوهشگران نشان دادند که در واقع نتیجه استفاده مدل‌های زبانی بزرگ از توانایی شناخته‌شده‌ای به نام «یادگیری درون‌متنی» (ICL) است، جایی که آن‌ها وظایف را بر اساس چند نمونه ارائه شده به آن‌ها کامل می‌کنند.

توانایی‌ها و محدودیت‌های مدل‌های هوش مصنوعی

از طریق هزاران آزمایش، تیم تحقیقاتی نشان داد که ترکیبی از توانایی پیروی از دستورالعمل (ICL)، حافظه و مهارت زبانی مدل‌های زبانی بزرگ، توانایی‌ها و محدودیت‌های آن‌ها را توضیح می‌دهد.

مادابوشی گفت: «ترس این بود که با بزرگ‌تر شدن مدل‌ها، بتوانند مسائل جدیدی را که در حال حاضر نمی‌توانیم پیش‌بینی کنیم، حل کنند و این تهدید وجود دارد که این مدل‌های بزرگ‌تر ممکن است توانایی‌های خطرناکی از جمله استدلال و برنامه‌ریزی را کسب کنند.»

«این موضوع بحث‌های زیادی را به راه انداخته است – برای مثال، در اجلاس ایمنی هوش مصنوعی سال گذشته در بلچلی پارک، که از ما خواسته شد تا در آن اظهار نظر کنیم – اما مطالعه ما نشان می‌دهد که ترس از این که یک مدل به‌طور ناگهانی کاری کاملاً غیرمنتظره، نوآورانه و بالقوه خطرناک انجام دهد، معتبر نیست.»

نگرانی‌ها در مورد تهدیدهای هوش مصنوعی

به گفته مادابوشی، نگرانی‌ها در مورد تهدید وجودی مدل‌های زبانی بزرگ محدود به غیرمتخصصان نیست و برخی از برجسته‌ترین پژوهشگران هوش مصنوعی در سراسر جهان نیز این نگرانی‌ها را ابراز کرده‌اند.

با این حال، این ترس‌ها به نظر بی‌اساس می‌آیند، زیرا آزمایش‌های پژوهشگران به وضوح نشان داد که توانایی‌های استدلال پیچیده نوظهور در مدل‌های زبانی بزرگ وجود ندارد.

مادابوشی خاطرنشان کرد که در حالی که مهم است به پتانسیل سوءاستفاده از هوش مصنوعی، مانند ایجاد اخبار جعلی و افزایش خطر تقلب، رسیدگی کنیم، اما اعمال مقررات بر اساس تهدیدات وجودی درک شده زودرس خواهد بود.

مادابوشی گفت: «مهم این است که این بدان معنی است که تکیه بر مدل‌های زبانی بزرگ برای تفسیر و انجام وظایف پیچیده که به استدلال پیچیده نیاز دارند بدون دستورالعمل صریح احتمالاً اشتباه است.»

«در عوض، کاربران به احتمال زیاد از مشخص کردن صریح آنچه که از مدل‌ها نیاز دارند و در صورت امکان ارائه مثال‌هایی برای همه به جز ساده‌ترین وظایف، بهره‌مند خواهند شد.»

گورویچ گفت: «نتایج ما به این معنی نیست که هوش مصنوعی اصلاً تهدیدی نیست. بلکه نشان می‌دهد که ظهور ادعایی مهارت‌های تفکر پیچیده مرتبط با تهدیدهای خاص با شواهد پشتیبانی نمی‌شود و ما می‌توانیم فرایند یادگیری مدل‌های زبانی بزرگ را به خوبی کنترل کنیم.»

پروفسور گورویچ نتیجه‌گیری کرد که تحقیقات آینده باید بر روی سایر خطرات مدل‌ها، مانند پتانسیل آن‌ها برای استفاده در تولید اخبار جعلی، متمرکز شود.

این مطالعه در سرور پیش‌چاپ arXiv منتشر شده است.

ChatGPTLLMپردازش زبان طبیعیهوش مصنوعی
0 نظر FacebookTwitterPinterestLinkedinTumblrVKEmail
شهاب الدین حدیدی

شهاب الدین حدیدی هستم، سردبیر فوت و فن. زندگی آنلاین یکی از تفریحات من در زمانیست که از ترافیک و شلوغی و هیاهو در فرار هستم.

مطلب قبلی
چرا خدمه پرواز نمی‌توانند انعام قبول کنند؟
مطلب بعدی
آلرژی‌های تابستانی: چگونه می‌توانیم از شر عطسه و آبریزش بینی خلاص شویم؟

شما هم نظر دهید Cancel Reply

برای دفعه بعد که نظر می‌دهم نام و ایمیل من را در این مرورگر ذخیره کنید.

* با استفاده از این فرم، با ذخیره و مدیریت داده‌های خود توسط این وب سایت موافقت می‌کنم.

مطالب مرتبط

  • وردپرس هم وارد حوزه رقابتی هوش مصنوعی شده...

    9 خرداد 1404
  • راهنمایی ساده برای اصطلاحات رایج در حوزه هوش...

    8 خرداد 1404
  • ایلان ماسک چت‌بات Grok را به تلگرام می‌آورد

    8 خرداد 1404
  • مدل هوش مصنوعی Aurora مایکروسافت می‌تواند کیفیت هوا،...

    7 خرداد 1404
  • تبدیل شدن به مدرس هوش مصنوعی؛ فرصت طلایی...

    7 خرداد 1404
  • شرکت Mistral AI چیست؟ همه چیز درباره رقیب...

    6 خرداد 1404
  • چگونه تعرفه‌های ترامپ هوش مصنوعی را به ناجی...

    6 خرداد 1404
  • آیا هوش مصنوعی اراده آزاد دارد؟ بررسی مسئولیت...

    6 خرداد 1404
  • گوگل پشتیبانی از هوش مصنوعی Gemini را به...

    5 خرداد 1404
  • آیا هوش مصنوعی خطرناک است؟ افشای تولید محتوای...

    5 خرداد 1404
  • سرمایه‌گذاری میلیارد دلاری OpenAI در امارات برای ساخت...

    3 خرداد 1404
  • چگونه هوش مصنوعی جامعه خودش را می‌سازد؟

    2 خرداد 1404
  • خرید ۶.۵ میلیارد دلاری OpenAI: همکاری با طراح...

    1 خرداد 1404

درباره فوت و فن

درباره فوت و فن

با ما تجربه‌ای جذاب از دنیای اطراف را داشته باشید.

در «فوت و فن»، ما به دنبال راه‌های ساده و کاربردی برای بهبود زندگی هستیم. واژهٔ «فن» در فارسی به معنای «شگرد» و «ترفند» است. ما تلاش می‌کنیم این ترفندها را در زندگی روزمره خود به کار ببریم و مطالبی شگفت‌انگیز و مفید را با شما به اشتراک بگذاریم. هدف ما این است که با به اشتراک گذاشتن تجربیات و آموخته‌های خود، به شما کمک کنیم تا روش‌های جدید و ایده‌های تازه‌ای را در زندگی خود بکار ببرید. با ما همراه باشید تا زندگی را با کمک «فوت و فن»، به یک تجربهٔ خلاقانه و لذت‌بخش تبدیل کنیم.

لینک‌های مفید

تماس با ما

 

تبلیغات در فوت و فن

 

درباره ما

Facebook Twitter Instagram Linkedin Tumblr Youtube Email

حامیان

2010-2025@ - All Right Reserved. Designed and Developed by FOOTOFAN

فوت و فن
  • دانش و فن
    • موبایل و تبلت
    • هوش مصنوعی
    • اپراتورها و وب
    • برنامه و نرم افزار
    • دنیای بازی
    • گوناگون
      • سخت افزار
      • تلویزیون
  • اقتصاد
    • اقتصاد بین الملل
    • بازارها
    • بانکداری و تجارت الکترونیک
    • خودرو
    • وبگردی
    • رپورتاژ
  • ورزش
    • فوتبال
    • موتوری
    • تنیس
  • سبک زندگی
    • سلامت
    • تغذیه
    • طبیعت
    • حیوانات
    • خلاقیت
    • آشپزی
  • گردشگری
    • گردشگری
  • فرهنگ و هنر
    • فیلم و سریال
    • کتاب و مجله
    • آثار باستانی
    • صنایع دستی
  • چند رسانه‌ای
    • عکس
    • ویدیو
    • خودمونی
    • همیاری
  • English