هوش مصنوعی، جهانی پیچیده و عمیق است. دانشمندانی که در این حوزه کار میکنند، اغلب برای توضیح پروژههایشان به اصطلاحات تخصصی و فنی متوسل میشوند. به همین خاطر تصمیم گرفتیم واژهنامهای فراهم کنیم که در آن، تعاریفی از مهمترین واژهها و عبارات تخصصی ارائه شده است.
AGI
هوش عمومی مصنوعی (AGI) اصطلاحی مبهم است، اما معمولاً به نوعی از هوش مصنوعی اطلاق میشود که در بسیاری از وظایف، اگر نگوییم در بیشتر آنها، تواناییهایی فراتر از یک انسان متوسط دارد. مدیرعامل OpenAI، سم آلتمن، اخیراً AGI را بهصورت «معادل انسانی متوسط که میتوان او را بهعنوان همکار استخدام کرد» توصیف کرده است. منشور OpenAI نیز AGI را چنین تعریف میکند: «سامانههایی بسیار خودمختار که در بیشتر کارهای اقتصادی باارزش، عملکردی بهتر از انسان دارند.»
عامل هوش مصنوعی (AI Agent)
عامل هوش مصنوعی ابزاری است که با استفاده از فناوریهای هوش مصنوعی، مجموعهای از وظایف را بهجای شما انجام میدهد، فراتر از آنچه یک چتبات ساده انجام میدهد. این وظایف ممکن است شامل ثبت هزینهها، رزرو بلیت یا میز رستوران و حتی نوشتن و نگهداری کد باشند. البته این حوزه نوظهور پیچیدگیهای زیادی دارد و «عامل هوش مصنوعی» ممکن است برای افراد مختلف معانی متفاوتی داشته باشد. زیرساختهای لازم نیز هنوز بهطور کامل توسعه نیافتهاند. اما مفهوم پایه چنین عاملی، سیستمی خودکار است که برای انجام کارهای چندمرحلهای، از چندین سامانه هوش مصنوعی بهره میبرد.
زنجیره تفکر (Chain of Thought)
در مواجهه با یک پرسش ساده، مغز انسان اغلب بدون نیاز به فکر زیاد میتواند پاسخ دهد، مانند اینکه «کدام حیوان بلندتر است: زرافه یا گربه؟» اما در بسیاری موارد، برای رسیدن به پاسخ صحیح باید مراحل میانی را طی کرد. مثلاً اگر یک کشاورز تعدادی مرغ و گاو داشته باشد و مجموعاً ۴۰ سر و ۱۲۰ پا بشماریم، احتمالاً باید یک معادله ساده بنویسیم تا به پاسخ برسیم (۲۰ مرغ و ۲۰ گاو).
در زمینه هوش مصنوعی، زنجیره تفکر به معنای تجزیه یک مسئله به مراحل میانی کوچکتر در مدلهای زبانی بزرگ است، تا کیفیت پاسخ نهایی بهبود یابد. این روش معمولاً زمان بیشتری برای پاسخدهی نیاز دارد، اما دقت پاسخ را بهویژه در زمینههای منطقی یا کدنویسی افزایش میدهد. این نوع مدلها با استفاده از یادگیری تقویتی بهینهسازی میشوند تا بتوانند زنجیرهوار تفکر کنند.
یادگیری عمیق (Deep Learning)
شاخهای از یادگیری ماشینی خودبهبوددهنده که در آن الگوریتمهای هوش مصنوعی با ساختاری چندلایه و مبتنی بر شبکه عصبی مصنوعی طراحی میشوند. این ساختار امکان شناسایی روابط پیچیدهتری را نسبت به سامانههای سادهتری چون مدلهای خطی یا درخت تصمیم فراهم میکند. ساختار الگوریتمهای یادگیری عمیق از مسیرهای پیوسته نورونهای مغز انسان الهام گرفته شده است.
مدلهای یادگیری عمیق قادرند ویژگیهای مهم دادهها را به طور مستقل شناسایی کنند، بدون نیاز به تعریف این ویژگیها توسط انسان. این ساختار همچنین از الگوریتمهایی پشتیبانی میکند که میتوانند از خطاها بیاموزند و با تکرار و تنظیم، خروجیهای خود را بهبود دهند. بااینحال، یادگیری عمیق نیازمند حجم عظیمی از دادههاست (میلیونها مورد یا بیشتر) و زمان آموزش بیشتری نیز نیاز دارد، به همین دلیل هزینه توسعه این مدلها بالاتر است.
دیفیوژن (Diffusion)
دیفیوژن یا «پراکندگی» فناوری کلیدی در قلب بسیاری از مدلهای مولد در زمینه هنر، موسیقی و متن است. این سیستمها که از فیزیک الهام گرفتهاند، دادههایی مانند عکس یا آهنگ را بهتدریج با افزودن نویز «تخریب» میکنند تا به حالتی برسند که ساختار اولیه کاملاً از بین برود. در فیزیک، دیفیوژن فرایندی خودبهخودی و غیر قابل بازگشت است، مثل شکر حلشده در قهوه که دیگر به شکل مکعبی بازنمیگردد. اما در هوش مصنوعی، هدف مدلهای دیفیوژن یادگیری فرایند «دیفیوژن معکوس» است تا بتوانند دادههای تخریبشده را بازیابی کنند.
تقطیر (Distillation)
تقطیر تکنیکی است برای استخراج دانش از یک مدل بزرگ هوش مصنوعی به مدل کوچکتر به سبک «معلم – شاگرد». توسعهدهندگان از مدل معلم درخواستهایی ارسال میکنند و خروجیهای آن را ثبت میکنند. این پاسخها گاه با یک پایگاه داده مقایسه میشوند تا دقت آنها سنجیده شود. سپس این خروجیها برای آموزش مدل شاگرد استفاده میشود تا بتواند رفتار مدل معلم را تقلید کند.
تقطیر اغلب برای ساخت مدلهای کوچکتر و کارآمدتر بر پایه مدلهای بزرگتر با کمترین کاهش عملکرد استفاده میشود. احتمالاً OpenAI از همین روش برای توسعه نسخه سریعتر GPT-4 موسوم به GPT-4 Turbo استفاده کرده است. تمام شرکتهای هوش مصنوعی از تقطیر در داخل استفاده میکنند، اما برخی ممکن است از آن برای تقلید مدلهای پیشرو رقیب استفاده کرده باشند که معمولاً برخلاف شرایط استفاده از API یا چتباتهاست.
ریزتنظیم (Fine-tuning)
ریز تنظیم به معنای آموزش بیشتر یک مدل هوش مصنوعی است تا عملکرد آن برای یک وظیفه یا حوزه خاص بهینه شود، معمولاً با استفاده از دادههای جدید و تخصصی. بسیاری از استارتاپهای هوش مصنوعی، مدلهای زبانی بزرگ را بهعنوان نقطه آغاز انتخاب میکنند و سپس برای افزایش کارایی در یک حوزه خاص، آن را با دانش و دادههای خاص خود ریز تنظیم میکنند.
شبکه مولد تخاصمی (GAN)
شبکههای مولد تخاصمی یا GAN، چارچوبهایی در یادگیری ماشینی هستند که برای تولید دادههای واقعگرایانه به کار میروند، از جمله در ابزارهایی چون دیپفیک. GAN شامل دو شبکه عصبی است: اولی داده تولید میکند و دومی آن را ارزیابی میکند. شبکه دوم یا تفکیکگر، تلاش میکند داده مصنوعی را شناسایی کند.
این ساختار بهصورت یک رقابت طراحی شده است، شبکه مولد سعی دارد خروجی خود را از دید تفکیکگر پنهان کند، درحالیکه تفکیکگر میخواهد داده جعلی را کشف کند. این رقابت منجر به بهبود کیفیت خروجیهای مدل میشود. البته GANها بیشتر در حوزههای محدود (مانند تولید تصاویر یا ویدیوهای واقعگرایانه) موفقاند تا در هوش مصنوعی عمومی.
هذیانگویی (Hallucination)
در صنعت هوش مصنوعی، «هذیانگویی» به معنای تولید اطلاعات نادرست توسط مدلهاست، یعنی ساختن چیزهایی که واقعی نیستند. این مسئله چالشی بزرگ برای کیفیت خروجی مدلهای مولد است. هذیانها میتوانند اطلاعات گمراهکننده تولید کنند و حتی خطراتی واقعی داشته باشند، مانند ارائه مشاوره پزشکی غلط. به همین دلیل، بیشتر ابزارهای هوش مصنوعی مولد در بخش شرایط استفاده، هشدار میدهند که پاسخهای تولیدشده باید راستیآزمایی شوند، اگرچه این هشدارها اغلب کمتر از خود پاسخها جلب توجه میکنند.
ریشه این مشکل در شکافهای دادهای در آموزش مدلهاست. برای مدلهای مولد عمومی (یا «مدلهای پایه») حل این مشکل دشوار است، چرا که داده کافی برای پاسخگویی به همه سؤالات احتمالی وجود ندارد. هذیانگویی باعث شده گرایش به سوی مدلهای خاصمنظوره و تخصصی بیشتر شود تا با کاهش شکاف دانشی، خطر اطلاعات نادرست نیز کمتر شود.
استنتاج (Inference)
استنتاج، به فرایند اجرای یک مدل هوش مصنوعی اطلاق میشود. این یعنی مدل برای پیشبینی یا نتیجهگیری از دادههایی که قبلاً دیده است، به کار گرفته میشود. البته بدون آموزش، استنتاج ممکن نیست؛ ابتدا مدل باید الگوهای داده را بیاموزد.
سختافزارهای مختلفی برای اجرای استنتاج وجود دارند: از پردازندههای موبایل گرفته تا GPUهای قوی یا شتابدهندههای خاص هوش مصنوعی. اما نه همه آنها عملکرد یکسانی دارند. اجرای مدلهای بزرگ روی لپتاپ بسیار کندتر از سرورهای ابری مجهز به تراشههای پیشرفته خواهد بود.
مدل زبانی بزرگ (LLM)
مدلهای زبانی بزرگ، همان مدلهایی هستند که در دستیارهای محبوبی مثل ChatGPT، Claude، Gemini گوگل، LLaMA متا، Copilot مایکروسافت یا Le Chat شرکت Mistral استفاده میشوند. زمانی که با یک دستیار هوش مصنوعی صحبت میکنید، مستقیماً با یک LLM در تعامل هستید یا با کمک ابزارهای جانبی همچون مرور وب یا مفسر کد.
دستیارها و مدلها ممکن است نام متفاوتی داشته باشند. مثلاً GPT نام مدل OpenAI است، در حالی که ChatGPT محصول دستیار مبتنی بر آن است. LLMها شبکههای عصبی عمیقی هستند با میلیاردها پارامتر عددی (یا «وزن») که روابط بین کلمات و عبارات را یاد میگیرند و نمایشی چندبعدی از زبان میسازند.
شبکه عصبی (Neural Network)
شبکه عصبی ساختار چندلایهای است که زیربنای یادگیری عمیق و به طور گسترده، انفجار ابزارهای مولد پس از ظهور LLMها را تشکیل میدهد. گرچه ایده الگوبرداری از ساختار مغز برای طراحی الگوریتمهای پردازش داده به دهه ۱۹۴۰ بازمیگردد، اما افزایش قدرت GPUها در صنعت بازیهای ویدیویی موجب شکوفایی واقعی آن شد. این تراشهها برای آموزش الگوریتمهای چندلایه بسیار مناسب بودند و باعث پیشرفت در زمینههایی چون تشخیص صدا، ناوبری خودران و کشف دارو شدند.
آموزش (Training)
توسعه مدلهای یادگیری ماشینی مستلزم فرایندی به نام «آموزش» است. به طور ساده، این فرایند شامل تغذیه داده به مدل برای یادگیری الگوها و تولید خروجیهای مفید است. در آغاز، ساختار ریاضی مدل فقط مجموعهای از اعداد تصادفی است. آموزش باعث میشود سیستم به ویژگیهای داده واکنش نشان دهد و خروجیها را به سمت هدفی خاص تنظیم کند، مثلاً تشخیص تصویر یک گربه یا سرودن هایکو. البته همه مدلها نیاز به آموزش ندارند. مدلهای مبتنی بر قواعد از پیش تعریفشده، مانند چتباتهای خطی، نیازی به آموزش ندارند ولی محدودیتهای بیشتری نسبت به مدلهای خودآموز دارند.
یادگیری انتقالی (Transfer Learning)
یادگیری انتقالی روشی است که در آن از یک مدل آموزشدیده بهعنوان نقطه آغاز برای ساخت مدلی دیگر برای وظیفهای متفاوت اما مرتبط استفاده میشود، بدین ترتیب، دانش پیشین قابل استفاده مجدد میشود. این روش میتواند هزینههای توسعه را کاهش دهد و در شرایطی که دادههای کافی برای وظیفه جدید وجود ندارد، بسیار مفید باشد. البته محدودیتهایی نیز دارد و برای عملکرد بهینه، معمولاً نیاز به آموزش دادههای بیشتر دارد.
وزنها (Weights)
وزنها از اجزای اصلی آموزش هوش مصنوعی هستند، چرا که میزان اهمیت ویژگیهای مختلف داده (متغیرهای ورودی) را تعیین میکنند، در نتیجه، خروجی مدل را شکل میدهند. بهعبارت دیگر، وزنها تعیین میکنند هر ویژگی در ورودی تا چه اندازه در تصمیم نهایی مدل تأثیر دارد.