هوش مصنوعی حالا یک قدم جدی به درک احساسات انسانی نزدیکتر شده است. پژوهشی جدید نشان میدهد که یک مدل رایانهای توانسته بدون آموزش مستقیم برچسبهای احساسی، مفاهیم احساسات را مستقیماً از تجربه انسانی یاد بگیرد و در حدود سهچهارم موارد، با قضاوت احساسی خود انسانها همراستا باشد.
این دستاورد، نگاه سنتی به احساسات را تغییر میدهد و آنها را نه صرفاً دستهبندیهایی از پیشتعریفشده، بلکه مفاهیمی قابل یادگیری از سیگنالهای زیسته انسان معرفی میکند. چنین رویکردی میتواند مسیر توسعه سیستمهایی را هموار کند که با حساسیت و درک زمینهای بیشتری به انسان پاسخ میدهند.
یادگیری احساسات انسانی توسط هوش مصنوعی چگونه ممکن شد؟
این توانایی از سیستمی به دست آمده که واکنشهای بدنی، آنچه افراد میبینند و کلماتی که هنگام مواجهه با تصاویر احساسی به کار میبرند را در کنار هم قرار میدهد. ترکیب این سه منبع داده، پایهای برای شکلگیری مفاهیم احساسی در ماشین فراهم کرده است.
در مؤسسه فناوری و علوم نارا (NAIST)، پروفسور چی هیاِیدا نشان داده است که این مفاهیم آموختهشده تا چه حد به توصیفهایی که شرکتکنندگان بعداً از احساسات خود ارائه میدهند نزدیک است.
مغز انسان چگونه احساسات را میسازد؟
نقش سیگنالهای درونی و بیرونی
روانشناسان مدتهاست معتقدند که احساسات زمانی شکل میگیرند که مغز، تغییرات بدنی را با رویدادهای محیطی پیوند میدهد.
درون بدن، درونپذیری یا Interoception به خوانش مغز از سیگنالهای داخلی اشاره دارد. این سیگنالها با تغییر ضربان قلب یا میزان تعریق افزایش یا کاهش مییابند.
در همان زمان، برونپذیری یا Exteroception به درک آنچه بیرون از بدن رخ میدهد مربوط است و زمینهای فراهم میکند که میتواند همان ضربان قلب را تهدیدآمیز یا ایمن جلوه دهد.
احساس ساختهشده حاصل تجربههای گذشته و نشانههای کنونی است و توضیح میدهد چرا افراد مختلف به یک صحنه یکسان واکنشهای متفاوتی نشان میدهند.
سه جریان داده برای شکلگیری احساس
برای ثبت نحوه شکلگیری احساسات، پژوهشگران سه نوع داده را از داوطلبان جمعآوری کردند:
- سیگنالهای بدنی
- ورودیهای بصری
- توصیفهای کلامی
شرکتکنندگان ۶۰ تصویر برانگیزاننده احساس از پایگاه International Affective Picture System را مشاهده کردند. همزمان، حسگرها ریتم قلب و هدایت پوستی را که با فعالیت غدد عرق مرتبط است ثبت کردند.
هر فرد تجربه خود را با کلمات توصیف کرد و به این ترتیب، پیوندی میان حس، بدن و زبان برای مدل ایجاد شد.
یادگیری بدون برچسبگذاری احساسات
برخلاف روشهای رایج، پژوهشگران NAIST هیچ برچسب احساسی از پیش تعیینشدهای به سیستم ندادند. آنها اجازه دادند رایانه بهطور طبیعی الگوهای مشترک میان دادهها را کشف کند.
در این پژوهش از مدلی آماری به نام mMLDA استفاده شد که الگوها را در دادههای چندگانه گروهبندی میکند و سیگنالهایی را که معمولاً با هم ظاهر میشوند به هم پیوند میدهد.
«اگرچه چارچوبهای نظری متعددی توضیح میدهند که احساسات چگونه بهعنوان مفهوم شکل میگیرند، اما فرایندهای محاسباتی پشت این شکلگیری هنوز بهخوبی بررسی نشدهاند.» – پروفسور چی هیاِیدا
مقایسه با قضاوت احساسی انسانها
پس از آموزش، مدل mMLDA مجموعهای از مفاهیم احساسی ایجاد کرد که هر شرکتکننده بر اساس آنها تصاویر را دستهبندی میکرد.
پژوهشگران این دستهبندیها را با ارزیابی خود افراد از والانس یا خوشایندی احساس و همچنین شدت آن مقایسه کردند.
در میان ۲۹ شرکتکننده، این مفاهیم آموختهشده در حدود ۷۵ درصد موارد با گزارشهای شخصی همخوانی داشتند و بهطور معناداری بهتر از دستهبندی تصادفی عمل کردند.
پیشبینی احساسات ناگفته
پس از آموزش مدل، تیم پژوهشی سراغ چالشی دشوارتر رفت: پیشبینی اطلاعات گمشده زمانی که فقط یک نوع داده در دسترس است.
مدل توانست بر اساس تصویر، واکنشهای بدنی محتمل را حدس بزند یا از روی سیگنالهای بدن، کلماتی را که فرد احتمالاً به کار میبرد پیشبینی کند.
این پیشبینیها زمانی دقیقتر بودند که شرکتکنندگان برای احساسات مشابه از واژگان یکسان استفاده میکردند.
یافتهها نشان میدهد چنین سیستمی شاید بتواند ناراحتی یا استرس را حتی زمانی که فرد قادر به بیان دقیق آن نیست تشخیص دهد.
محدودیتهای استنباط بصری
بینایی ضعیفترین بخش این مدل باقی ماند. سیگنالهای بدنی معمولاً نمیتوانند بهطور دقیق مشخص کنند فرد چه تصویری را دیده است.
یک الگوی ضربان قلب میتواند با صحنههای بسیار متفاوتی سازگار باشد و همین موضوع، دقت استنباط بصری را کاهش میدهد.
پژوهشگران معتقدند افزودن ورودیهای حسی غنیتر مانند صدا یا لمس میتواند این ضعف را در آینده جبران کند.
کاربردهای بالقوه در فناوری مراقبتی
این رویکرد میتواند برای توسعه رباتها و نرمافزارهایی مفید باشد که خود را با وضعیت احساسی افراد تطبیق میدهند، نه فقط با کلمات آنها.
وقتی حسگرها افزایش استرس را تشخیص میدهند، سیستم میتواند زمانبندی یا لحن پاسخ را تنظیم کند، زیرا بدن اغلب پیش از گفتار واکنش نشان میدهد.
از این روش میتوان در ابزارهای سلامت روان یا فناوریهای کمکی برای زوال عقل و اختلالات رشدی استفاده کرد، هرچند اجرای واقعی آنها نیازمند نظارت دقیق است.
حریم خصوصی و چالشهای اخلاقی
سیگنالهای احساسی میتوانند اطلاعاتی فراتر از نیت فرد آشکار کنند، بنابراین باید مانند دادههای سلامت، حساس تلقی شوند.
یادگیری از ابزارهای پوشیدنی میتواند الگوهای رفتاری در محل کار یا خانه را ثبت کند و این موضوع خطرات مربوط به حریم خصوصی و سوگیری را افزایش میدهد.
همچنین، چون مدل mMLDA الگوها را بهصورت فردمحور یاد میگیرد، طراحان باید راهکارهایی برای کاربران جدید بدون دورههای طولانی آموزش شخصی پیدا کنند.
جمعبندی پژوهش
این پژوهش، سیگنالهای بدنی، ادراک محیطی و زبان را در یک فرایند یادگیری واحد پیوند داده است؛ فرایندی که نشان میدهد انسانها چگونه مفاهیم احساسی را میسازند.
پژوهش در مجله علمی IEEE Transactions on Affective Computing منتشر شده است و آینده آن به کیفیت دادهها و قدرت چارچوبهای حفاظتی بستگی دارد.
اگر به آینده هوش مصنوعی و تعامل انسان و ماشین علاقهمند هستید، نظر خود را در بخش دیدگاهها بنویسید یا این مقاله را با دوستانتان به اشتراک بگذارید.