دانشمندان روشی مبتنی بر مدلسازی هوش مصنوعی توسعه دادهاند که نحوه تولید آواز پرندگان را تقلید میکند، مشابه روشی که مدلهای زبانی بزرگی مانند ChatGPT برای تولید جملات انسانی استفاده میکنند.
با آموزش این مدل بر اساس ضبطهای آواز پرندگان، این سیستم موفق شد دنبالههای آواز سهره بنگالی را بازسازی کند و بینشهای مهمی را در مورد چگونگی ساختاردهی آواهای پرندگان آشکار کند.
این پژوهش که در مجله علوم اعصاب منتشر شده است، میتواند درک ما را از نوروبیولوژی پردازش زبان و نحوه شکلگیری الگوهای پیچیده صوتی در انسان و حیوانات بهبود بخشد.
آواز پرندگان و زبان انسان
هم پرندگان و هم انسانها صداهای خود را به شیوهای ساختاریافته تنظیم میکنند. در گفتار انسانی، کلمات از قوانین گرامری مشخصی پیروی میکنند، در حالی که پرندگان آوازهای خود را در الگوهای هجایی منظم میخوانند.
دژهه جین، دانشیار فیزیک در کالج علوم اِبِرلی دانشگاه پنسیلوانیا و نویسنده اصلی این مطالعه، توضیح داد:
“اگرچه آواز پرندگان بسیار سادهتر از زبان انسان است، اما دنباله هجایی آنها به روشی مشابه زبان انسان سازماندهی میشود. بنابراین، پرندگان مدل خوبی برای بررسی نوروبیولوژی زبان فراهم میکنند.”
یکی از ویژگیهای کلیدی آواز پرندگان و زبان انسان، وابستگی به زمینه (Context Dependence) است، به این معنا که صداهای قبلی بر آنچه در ادامه میآید تأثیر میگذارند.
برای مثال، در زبان انگلیسی، عبارت “flies like” معانی متفاوتی دارد:
- در جمله “time flies like an arrow” (زمان مانند یک تیر میگذرد)، این عبارت به مفهوم “گذشتن زمان” اشاره دارد.
- در جمله “fruit flies like bananas” (مگسهای میوه به موز علاقه دارند)، این عبارت دربارهی حشرات و غذا است.
- اما اگر بگوییم “time flies like bananas” (زمان مانند موز میگذرد)، جمله بیمعنا میشود.
همین اصل در آواز پرندگان نیز صدق میکند: ترتیب هجاهای آنها تصادفی نیست، بلکه از الگوهای خاصی پیروی میکند که باعث میشود آوازشان قابلشناسایی باشد.
جین افزود:
“ما در تحقیقات قبلیمان دریافتیم که آواز سهرههای بنگالی نیز وابستگی به زمینه دارد. در این مطالعه، روش آماری جدیدی برای اندازهگیری بهتر این ویژگی در هر پرنده توسعه دادیم تا درک کنیم که چگونه در مغز آنها سیمکشی شده است.”
آموزش یک مدل تولیدکننده آواز پرندگان
محققان آوازهای ضبطشدهی شش سهره بنگالی را تجزیهوتحلیل کردند. هر پرنده معمولاً بین ۷ تا ۱۵ هجای مختلف در هر دنباله آواز خود دارد.
مدل هوش مصنوعی آنها، مشابه مدلهای زبانی بزرگ، یاد میگیرد که احتمال وقوع هر هجا در یک دنباله چقدر است، درست مانند نحوهای که ChatGPT کلمات را بر اساس متن قبلی پیشبینی میکند.
این مدل بر اساس مدلهای مارکوف ساخته شده است؛ روشی که ترتیب رویدادها را با ردیابی آنچه در گذشته رخ داده، پیشبینی میکند. تصور کنید یک نمودار جریان (Flowchart) داریم که هر هجا به چند هجای احتمالی بعدی منتهی میشود، با احتمالهای مشخص برای هر انتقال.
جین توضیح داد:
“مدلهای پایهای مارکوف ساده هستند، اما بیش از حد تعمیم میدهند و ممکن است دنبالههایی ایجاد کنند که در واقعیت وجود ندارند.”
به همین دلیل، تیم پژوهشی از یک نوع خاص از مدلهای مارکوف به نام مدل مارکوف نیمهقابلمشاهده (Partially Observable Markov Model) استفاده کرد. این مدل وابستگی به زمینه را نیز در نظر میگیرد و ارتباطات بیشتری میان هجاهای معمولی برقرار میکند. این پیچیدگی اضافهشده، دقت مدل را افزایش میدهد.
با استفاده از این روش، تیم پژوهشی مجموعهای از مدلهای احتمالی برای هر پرنده ایجاد کرد و آنها را بهتدریج اصلاح کرد تا فقط دنبالههایی تولید شود که در آواز طبیعی پرندهها دیده شده است.
یافتههای مدل آواز پرندگان
نتایج نشان داد که همه شش پرنده موردبررسی وابستگی به زمینه را در آوازهای خود نشان دادند، به این معنا که آوازهای خود را بهطور تصادفی نمیخوانند، بلکه آنها را با ساختاری خاص تنظیم میکنند.
با این حال، میزان وابستگی به زمینه در بین پرندگان متفاوت بود.
جین توضیح داد:
“این تفاوت میتواند ناشی از عوامل متعددی باشد، از جمله ویژگیهای مغزی پرندگان. یا شاید هم، از آنجایی که این آوازها آموخته میشوند، ممکن است میزان وابستگی به زمینه در آواز معلم پرنده نیز تأثیرگذار باشد.”
برای بررسی بیشتر این موضوع، پژوهشگران پرندگانی را مطالعه کردند که قادر به شنیدن آوازهای خود نبودند. نتایج بسیار قابلتوجه بود:
✅ این پرندگان کاهش چشمگیری در هجاهای وابسته به زمینه داشتند، که نشان میدهد بازخورد شنوایی نقش حیاتی در تنظیم آوازهای آنها دارد.
این یافته نشان میدهد که پرندگان، مشابه انسانها هنگام یادگیری زبان، به آوازهای خود گوش میدهند و الگوهای صوتیشان را بر اساس آن تنظیم میکنند.
جین افزود:
“پرندگان به آوازهای خود گوش میدهند و بر اساس آنچه میشنوند، آوازشان را تنظیم میکنند. به نظر میرسد که مکانیزمهای مرتبط در مغز نقش مهمی در وابستگی به زمینه دارند.”
وی همچنین اشاره کرد که در آینده، محققان قصد دارند فعالیت نورونها را هنگام تولید آواز نقشهبرداری کنند تا ببینند کدام مدارهای مغزی، کنترل وابستگی به زمینه را بر عهده دارند.
کاربردهای گستردهتر این پژوهش
محققان تأکید کردند که این روش مدلسازی جدید مبتنی بر هوش مصنوعی نهتنها برای آواز پرندگان، بلکه برای تحلیل سایر صداهای حیوانات و الگوهای رفتاری آنها نیز قابلاستفاده است.
جین گفت:
“ما در واقع این روش را روی زبان انگلیسی نیز آزمایش کردیم و توانستیم متنی تولید کنیم که تا حد زیادی از نظر گرامری صحیح بود.”
✅ این نشان میدهد که مکانیزمهای عصبی حاکم بر آواز پرندگان و زبان انسان، شباهتهای عمیقتری نسبت به آنچه قبلاً تصور میشد دارند.
برخی از فیلسوفان معتقدند که دستور زبان انسانی یک ویژگی شناختی منحصربهفرد است، اما این مطالعه این پرسش را مطرح میکند که آیا زبان انسان واقعاً تا این حد منحصربهفرد است، در حالی که پرندگان از الگوهای مشابهی پیروی میکنند؟
درک زبان و ارتباطات انسانی
این پژوهش افقهای جدیدی را برای درک نحوه رمزگذاری زبان و ارتباطات در مغز، چه در انسان و چه در پرندگان، باز میکند.
✅ در آینده، دانشمندان امیدوارند فعالیتهای نورونی را در حین تولید آواز ترسیم کنند تا ببینند کدام مدارهای مغزی، کنترل وابستگی به زمینه را بر عهده دارند.
✅ همچنین، قصد دارند مدلهای هوش مصنوعی را روی سایر گونههای صوتی مانند نهنگها، دلفینها و نخستیها اعمال کنند تا الگوهای مشترک در ارتباطات را شناسایی کنند.
در نهایت، این تحقیقات پلی میان علوم اعصاب، هوش مصنوعی و زبانشناسی ایجاد میکند و سرنخهای جدیدی درباره چگونگی تولید ارتباطات ساختاریافته در مغز موجودات زنده ارائه میدهد.
🚀 با پیشرفت فناوری هوش مصنوعی، مدلهای آموزشدیده بر اساس آواز پرندگان میتوانند به ما در درک بهتر پردازش زبان در مغز انسان و چگونگی تطبیق گفتار در طول زمان کمک کنند.