با وجود تمام آموزشها و قدرت پردازشی موجود در جهان، ابزارهای هوش مصنوعی مانند ChatGPT هنوز در یک زمینه ساده و در عین حال شگفتانگیز ناتوان هستند: درک یک گل. مطالعهای جدید نشان میدهد که هوش مصنوعی نمیتواند مفهوم «گل» را مانند انسان درک کند.
محدودیت مدلهای زبانی بزرگ
مدلهایی که فقط با زبان یا تصویر آموزش میبینند
مطالعهای که به رهبری پژوهشگران دانشگاه ایالتی اوهایو انجام شده، دلیل این مسئله را بررسی کرده است. بیشتر مدلهای زبانی بزرگ (LLM) که هوش مصنوعی را هدایت میکنند، تنها با زبان و گاهی با تصویر آموزش میبینند. این محدودیت، تجربهی آنها از جهان را بسیار محدود میکند.
«یک مدل زبانی بزرگ نمیتواند بوی یک گل رز را استشمام کند، گلبرگهای یک مروارید را لمس کند یا در دشتی از گلهای وحشی قدم بزند»، به گفتهی چیهویی شو، نویسندهی اصلی مقاله و پژوهشگر پسادکترا در روانشناسی.
ناتوانی در تجربههای حسی و حرکتی
بدون تجربههای حسی و حرکتی، مدلهای هوش مصنوعی نمیتوانند واقعاً مفهوم گل را در تمام غنای آن بازنمایی کنند. این موضوع برای بسیاری از مفاهیم انسانی دیگر نیز صادق است.
آیا هوش مصنوعی میتواند احساسات را بازنمایی کند؟
مقایسه درک انسان و هوش مصنوعی از کلمات
تیم پژوهشی، نحوهی بازنمایی معنای ۴۴۴۲ کلمه را در انسان و مدلهای زبانی بررسی کرد. این کلمات شامل اشیایی مانند «گل» و «سم» تا مفاهیمی مانند «طنزآمیز» و «تاب خوردن» میشدند.
آزمون مدلها
پژوهشگران دو خانواده از مدلهای هوش مصنوعی را بررسی کردند:
- GPT-3.5 و GPT-4 از شرکت OpenAI
- PaLM و Gemini از شرکت Google
مقایسه میان انسان و هوش مصنوعی بر اساس دو معیار اصلی انجام شد:
معیار اول: هنجارهای گلاسگو (Glasgow Norms)
در این معیار، از افراد خواسته شد تا کلمات را بر اساس ۹ ویژگی رتبهبندی کنند. از جمله:
- شدت برانگیختگی احساسی یک کلمه
- میزان ملموس بودن آن
- میزان قابل تصور بودن آن
مثلاً کلمهی «گل» چقدر احساسات را تحریک میکند؟ یا چقدر میتوان آن را بهوضوح تصور کرد؟
معیار دوم: هنجارهای لنکستر (Lancaster Norms)
این معیار بر پایهی تجربههای حسی و حرکتی بنا شده بود. شرکتکنندگان مشخص کردند که هر کلمه تا چه اندازه با حواس مختلف (لمس، بویایی، بینایی) و حرکات جسمی مانند حرکت دست یا تنه مرتبط است.
بهویژه از افراد پرسیده شد که حس بویایی و لامسه در تجربهی گل چقدر دخیل هستند.
تجربه انسانی، غایب در هوش مصنوعی
شکست هوش مصنوعی در مفاهیم حسی
نتایج بسیار قابلتوجه بودند. مدلهای هوش مصنوعی در بازنمایی کلماتی که جنبهی حسی یا حرکتی نداشتند، عملکرد خوبی داشتند. اما در مورد مفاهیمی که ریشه در دنیای فیزیکی دارند – از جمله دیدن، بوییدن، لمس کردن و حرکت کردن – هوش مصنوعی عقب مانده است.
«از بوی شدید گل، لمس ابریشمی گلبرگها، تا لذت عمیقی که در انسان بیدار میشود، مفهوم انسانی گل از این تجربههای متنوع شکل میگیرد و آنها را در یک دستهی منسجم قرار میدهد»، به گفتهی پژوهشگران.
زبان بهتنهایی کافی نیست
مطالعه نشان داد که زبان بهتنهایی نمیتواند بازنمایی مفهومی را در غنای کاملش فراهم کند. بهگفتهی شو:
«زبان نمیتواند تمام جنبههای مفهوم را بهطور کامل بازسازی کند.»
آیا هوش مصنوعی روزی به انسان نزدیک خواهد شد؟
آموزش همراه با تصویر، گامی رو به جلو
امیدهایی وجود دارد که هوش مصنوعی پیشرفت کند. مطالعه نشان داد که مدلهایی که با تصاویر نیز آموزش دیدهاند، در درک مفاهیم بصری بهتر عمل میکنند.
تعامل با جهان فیزیکی: گام بعدی
شو اشاره کرد که اگر مدلهای آینده با دادههای حسی و رباتیک ترکیب شوند، ممکن است بتوانند به درک نزدیکتری از جهان فیزیکی برسند.
«زمانی که مدلهای زبانی با دادههای حسی و توانایی تعامل فیزیکی تقویت شوند، ممکن است بتوانند استنباطهایی فعال از دنیای فیزیکی داشته باشند.»
اما در حال حاضر، گل همچنان چیزی است که تنها انسان آن را بهطور کامل تجربه میکند.
«اگر هوش مصنوعی جهان را بهصورتی بنیادین متفاوت از انسان درک کند، این میتواند بر نحوهی تعامل آن با ما تأثیر بگذارد»، بهگفتهی شو.
چرا تجربه انسانی هنوز اهمیت دارد؟
فراتر از توصیف: زندگی کردن مفاهیم
در حالیکه ماشینها در پردازش زبان و تصویر بهتر میشوند، هنوز فاقد چیزی اساسی هستند: غنای تجربهی واقعی زندگی.
این ارتباط عمیق با حواس، شکلدهندهی درک ما از جهان است. درک انسان تنها توصیف چیزها نیست، بلکه زندگی کردن آنهاست. مطالعه نشان داد که این تجربهها، مفاهیم را بهگونهای به هم متصل میکنند که مدلهای مبتنی بر متن نمیتوانند به آن برسند.
حتی با پیشرفت فناوری، این لحظات ظریف و ژرف یادآور چیزی هستند که واقعاً انسان بودن را معنا میکند – و اینکه چرا تجربهی زندگی هنوز از دسترس ماشینها دور است.
منابع علمی
این مقاله بر پایهی مطالعهای منتشرشده در مجلهی Nature Human Behaviour تهیه شده است.