ChatGPT و سایر مدلهای زبانی بزرگ (LLM) فاقد توانایی یادگیری مستقل یا کسب مهارتهای جدید به تنهایی هستند. این موضوع نشان میدهد که مدلهای هوش مصنوعی، تهدیدی برای بقای بشریت به حساب نمیآیند. این نتیجه از تحقیق جدیدی که توسط دانشگاه بث و دانشگاه فنی دارمشتات در آلمان انجام شده، به دست آمده است.
این مطالعه به عنوان بخشی از مجموعه مقالات شصت و دومین نشست سالانهی انجمن زبانشناسی محاسباتی (ACL 2024) منتشر شده است – کنفرانسی بینالمللی در زمینهی پردازش زبان طبیعی.
مدلهای قابل کنترل، پیشبینیپذیر و ایمن
پژوهشگران دریافتند که در حالی که مدلهای زبانی بزرگ میتوانند به صورت سطحی دستورالعملها را دنبال کرده و در زبانآموزی مهارت نشان دهند، اما قادر به کسب مهارتهای جدید بدون دستورالعمل صریح نیستند. بنابراین، این مدلها ذاتاً قابل کنترل، پیشبینیپذیر و ایمن باقی میمانند.
به گفتهی کارشناسان، حتی زمانی که مدلهای زبانی بزرگ با مجموعه دادههای بزرگتری آموزش میبینند، میتوان بدون نگرانیهای ایمنی قابل توجهی از آنها استفاده کرد، هرچند که همچنان احتمال سوء استفاده از این فناوری وجود دارد.
مدلهای هوش مصنوعی فاقد تواناییهای استدلال پیچیده
با رشد این مدلها، احتمالاً توانایی تولید زبان پیشرفتهتر و پاسخ به درخواستهای دقیقتر را خواهند داشت، اما به شدت غیرمحتمل است که بتوانند تواناییهای استدلال پیچیده را توسعه دهند.
هاریش تایار مادابوشی، دانشمند کامپیوتر در دانشگاه بث و همنویسندهی این مطالعه جدید در مورد «تواناییهای نوظهور» مدلهای زبانی بزرگ گفت: «روایت غالب مبنی بر اینکه این نوع هوش مصنوعی تهدیدی برای بشریت است، مانع از پذیرش و توسعهی گسترده این فناوریها میشود و همچنین توجه را از مسائل واقعی که نیاز به تمرکز دارند، منحرف میکند.»
تواناییهای نوظهور مدلهای زبانی بزرگ
تیم تحقیقاتی به رهبری پروفسور ایرینا گورویچ در دانشگاه فنی دارمشتات در آلمان، آزمایشاتی را برای ارزیابی توانایی مدلهای زبانی بزرگ در انجام وظایفی که قبلاً با آنها مواجه نشده بودند – به اصطلاح تواناییهای نوظهور – انجام دادند.
برای مثال، مدلهای زبانی بزرگ میتوانند به سوالاتی درباره موقعیتهای اجتماعی پاسخ دهند بدون اینکه به طور خاص برای انجام این کار آموزش دیده یا برنامهریزی شده باشند.
در حالی که تحقیقات قبلی پیشنهاد میکرد که این قابلیت ناشی از «آگاهی» مدلها از موقعیتهای اجتماعی است، پژوهشگران نشان دادند که در واقع نتیجه استفاده مدلهای زبانی بزرگ از توانایی شناختهشدهای به نام «یادگیری درونمتنی» (ICL) است، جایی که آنها وظایف را بر اساس چند نمونه ارائه شده به آنها کامل میکنند.
تواناییها و محدودیتهای مدلهای هوش مصنوعی
از طریق هزاران آزمایش، تیم تحقیقاتی نشان داد که ترکیبی از توانایی پیروی از دستورالعمل (ICL)، حافظه و مهارت زبانی مدلهای زبانی بزرگ، تواناییها و محدودیتهای آنها را توضیح میدهد.
مادابوشی گفت: «ترس این بود که با بزرگتر شدن مدلها، بتوانند مسائل جدیدی را که در حال حاضر نمیتوانیم پیشبینی کنیم، حل کنند و این تهدید وجود دارد که این مدلهای بزرگتر ممکن است تواناییهای خطرناکی از جمله استدلال و برنامهریزی را کسب کنند.»
«این موضوع بحثهای زیادی را به راه انداخته است – برای مثال، در اجلاس ایمنی هوش مصنوعی سال گذشته در بلچلی پارک، که از ما خواسته شد تا در آن اظهار نظر کنیم – اما مطالعه ما نشان میدهد که ترس از این که یک مدل بهطور ناگهانی کاری کاملاً غیرمنتظره، نوآورانه و بالقوه خطرناک انجام دهد، معتبر نیست.»
نگرانیها در مورد تهدیدهای هوش مصنوعی
به گفته مادابوشی، نگرانیها در مورد تهدید وجودی مدلهای زبانی بزرگ محدود به غیرمتخصصان نیست و برخی از برجستهترین پژوهشگران هوش مصنوعی در سراسر جهان نیز این نگرانیها را ابراز کردهاند.
با این حال، این ترسها به نظر بیاساس میآیند، زیرا آزمایشهای پژوهشگران به وضوح نشان داد که تواناییهای استدلال پیچیده نوظهور در مدلهای زبانی بزرگ وجود ندارد.
مادابوشی خاطرنشان کرد که در حالی که مهم است به پتانسیل سوءاستفاده از هوش مصنوعی، مانند ایجاد اخبار جعلی و افزایش خطر تقلب، رسیدگی کنیم، اما اعمال مقررات بر اساس تهدیدات وجودی درک شده زودرس خواهد بود.
مادابوشی گفت: «مهم این است که این بدان معنی است که تکیه بر مدلهای زبانی بزرگ برای تفسیر و انجام وظایف پیچیده که به استدلال پیچیده نیاز دارند بدون دستورالعمل صریح احتمالاً اشتباه است.»
«در عوض، کاربران به احتمال زیاد از مشخص کردن صریح آنچه که از مدلها نیاز دارند و در صورت امکان ارائه مثالهایی برای همه به جز سادهترین وظایف، بهرهمند خواهند شد.»
گورویچ گفت: «نتایج ما به این معنی نیست که هوش مصنوعی اصلاً تهدیدی نیست. بلکه نشان میدهد که ظهور ادعایی مهارتهای تفکر پیچیده مرتبط با تهدیدهای خاص با شواهد پشتیبانی نمیشود و ما میتوانیم فرایند یادگیری مدلهای زبانی بزرگ را به خوبی کنترل کنیم.»
پروفسور گورویچ نتیجهگیری کرد که تحقیقات آینده باید بر روی سایر خطرات مدلها، مانند پتانسیل آنها برای استفاده در تولید اخبار جعلی، متمرکز شود.
این مطالعه در سرور پیشچاپ arXiv منتشر شده است.