یکشنبه۱۱آبان۱۴۰۴
  • EN
  • تبلیغات
  • تماس با ما
  • درباره ما
فوت و فن
  • دانش و فن
    • موبایل و تبلت
    • هوش مصنوعی
    • اپراتورها و وب
    • برنامه و نرم افزار
    • دنیای بازی
    • گوناگون
      • تلویزیون
      • سخت افزار
  • اقتصاد
    • اقتصاد بین الملل
    • بازارها
    • بانکداری و تجارت الکترونیک
    • خودرو
    • وبگردی
    • رپورتاژ
  • ورزش
    • فوتبال
    • موتوری
  • سبک زندگی
    • سلامت
    • تغذیه
    • طبیعت
    • حیوانات
    • آشپزی
    • خلاقیت
  • گردشگری
    • گردشگری
  • فرهنگ و هنر
    • فیلم و سریال
    • کتاب و مجله
    • آثار باستانی
    • صنایع دستی
  • چند رسانه‌ای
    • عکس
    • ویدیو
    • خودمونی
    • همیاری
هوش مصنوعی

پژوهشگران هشدار دادند: آموزش هوش مصنوعی با محتوای وایرال، عملکردش را نابود می‌کند

علی محمدپناه 11 آبان 1404
A+A-
Reset
هوش مصنوعی
1

به نظر می‌رسد هوش مصنوعی هم مانند انسان‌ها دچار «اسکرول بی‌پایان» می‌شود. چه ساعت‌ها وقت‌گذرانی در TikTok باشد و چه پیمایش طولانی در رشته پست‌های X (توییتر سابق)، همه‌ی ما درگیر یکی از روندهای مدرن زندگی امروزی شده‌ایم که «پوسیدگی مغز» یا brainrot است.

این اصطلاح به افت تمرکز شناختی ناشی از مصرف مداوم محتوای کوتاه و جذاب اشاره دارد، محتوایی که برای جلب توجه در کوتاه‌ترین زمان ممکن طراحی شده است. اما حالا مشخص شده که فقط انسان‌ها درگیر این مشکل نیستند؛ هوش مصنوعی هم همین واکنش را نشان می‌دهد.

وقتی مغز هوش مصنوعی هم می‌پوسد

پژوهشگران دانشگاه Texas A&M، دانشگاه تگزاس در آستین و دانشگاه Purdue مجموعه‌ای از مدل‌های زبانی بزرگ را با ماه‌ها داده از محتوای وایرال و پربازدید پلتفرم X آموزش دادند. نتیجه شگفت‌انگیز بود:

  • توانایی استدلال مدل‌ها ۲۳٪ کاهش یافت.
  • حافظه بلندمدت آن‌ها ۳۰٪ کاهش پیدا کرد.
  • در تست‌های شخصیتی، خودشیفتگی و روان‌پریشی در مدل‌ها افزایش یافت.

حتی زمانی که مدل‌ها دوباره با داده‌های باکیفیت آموزش داده شدند، آثار این «پوسیدگی» باقی ماند، درست مانند انسان‌هایی که مغزشان پس از مصرف بیش از حد محتوای کوتاه به‌سختی به حالت اولیه بازمی‌گردد.

آزمایش با دو نوع داده

پژوهشگران دو مجموعه داده ساختند:

  • پست‌های کوتاه و پربازدید X (محتوای هیجانی و وایرال)
  • پست‌های بلندتر و تحلیلی‌تر (با تعامل کمتر)

سپس دو مدل هوش مصنوعی Llama 3 و Qwen را جداگانه با هر مجموعه داده آموزش دادند. پس از آموزش، عملکرد آن‌ها در تست‌های استاندارد هوش مصنوعی مقایسه شد. نتیجه:

  • دقت در آزمون استدلال از ۷۴.۹٪ به ۵۷.۲٪ کاهش یافت.
  • توانایی تحلیل داده‌های طولانی از ۸۴.۴٪ به ۵۲.۳٪ افت کرد.

در نتیجه، مانند انسان‌ها، مدل‌ها در انجام کارهای بلندمدت تمرکز خود را از دست دادند و برای رسیدن سریع‌تر به نتیجه، مراحل حیاتی را نادیده گرفتند.

آیا این خطر واقعی است؟

در نگاه اول، هوش مصنوعی‌ها که در محیط‌های بسته آموزش می‌بینند، ظاهراً به طور مستقیم در شبکه‌های اجتماعی حضور ندارند. اما موضوع پیچیده‌تر است. مدل‌هایی مانند ChatGPT ممکن است مستقیماً از پست‌های وایرال یاد نگیرند، اما اگر داده‌های آموزشی آن‌ها آلوده به چنین محتواهایی باشد، عملکردشان دچار افت می‌شود.

مطالعه نشان می‌دهد که هوش مصنوعی، اگر با داده‌های ضعیف و سطحی آموزش ببیند، می‌تواند به‌راحتی منحرف، مغشوش یا حتی مغرور شود، پدیده‌ای که شاید روزی نیاز به «غربالگری سلامت» برای مدل‌های هوش مصنوعی را ضروری کند!

هرچند بعید است نسخه‌های آینده ChatGPT دچار «پوسیدگی مغزی» شوند، اما این تحقیق به‌روشنی ثابت می‌کند که حتی هوش مصنوعی هم به رژیم داده‌ای سالم نیاز دارد.

سخن پایانی

هوش مصنوعی مغز ندارد، اما می‌تواند رفتارهای انسانی را بازتاب دهد. اگر مدل‌ها با داده‌های نادرست یا هیجانی آموزش ببینند، نتایج آن نه‌تنها دقیق نخواهد بود، بلکه ممکن است خطرناک شود؛ بنابراین همان‌طور که بدن انسان به غذای سالم نیاز دارد، ذهن دیجیتال هوش مصنوعی هم باید با داده‌های سالم و باکیفیت تغذیه شود.

منبع tomsguide
aiآموزش هوش مصنوعیذهن دیجیتالهوش مصنوعی
0 نظر FacebookTwitterPinterestLinkedinTumblrVKRedditEmail
علی محمدپناه

مطلب قبلی
تفاوت پردازش مغز در تصاویر ذهنی و واقعیت

شما هم نظر دهید Cancel Reply

برای دفعه بعد که نظر می‌دهم نام و ایمیل من را در این مرورگر ذخیره کنید.

* با استفاده از این فرم، با ذخیره و مدیریت داده‌های خود توسط این وب سایت موافقت می‌کنم.

مطالب مرتبط

  • راهنمای کامل دسترسی به گفت‌وگوهای قدیمی در ChatGPT

    10 آبان 1404
  • چرا مرورگر Comet از Chrome هوشمندتر است؟ ۷...

    9 آبان 1404
  • موج اخراج‌ها در عصر هوش مصنوعی | آیا...

    9 آبان 1404
  • چطور دقیق‌ترین پاسخ‌ها را از هوش مصنوعی Gemini...

    8 آبان 1404
  • بهترین گزینه‌های سرمایه‌گذاری با ۱۰ هزار دلار به‌نظر...

    8 آبان 1404
  • گردشگری واقعیت مجازی چیست؟ سفر به سراسر جهان...

    8 آبان 1404
  • شرکت OpenAI ابزار هوش مصنوعی تولید موسیقی می‌سازد؛...

    7 آبان 1404
  • چطور با Google Gemini صدا را رایگان به...

    6 آبان 1404
  • اخراج ۶۰۰ کارمند هوش مصنوعی در متا برای...

    3 آبان 1404
  • هوش مصنوعی سن واقعی بدن را از خون...

    2 آبان 1404
  • مرورگر Atlas؛ آغاز عصر جدید جست‌وجوی هوشمند با...

    2 آبان 1404
  • راهنمای کامل ChatGPT Projects؛ ابزاری برای سازمان‌دهی پروژه‌ها...

    1 آبان 1404
  • رشد کاربران هوش مصنوعی در چین در سال...

    1 آبان 1404

درباره فوت و فن

درباره فوت و فن

با ما تجربه‌ای جذاب از دنیای اطراف را داشته باشید.

در «فوت و فن»، ما به دنبال راه‌های ساده و کاربردی برای بهبود زندگی هستیم. واژهٔ «فن» در فارسی به معنای «شگرد» و «ترفند» است. ما تلاش می‌کنیم این ترفندها را در زندگی روزمره خود به کار ببریم و مطالبی شگفت‌انگیز و مفید را با شما به اشتراک بگذاریم. هدف ما این است که با به اشتراک گذاشتن تجربیات و آموخته‌های خود، به شما کمک کنیم تا روش‌های جدید و ایده‌های تازه‌ای را در زندگی خود بکار ببرید. با ما همراه باشید تا زندگی را با کمک «فوت و فن»، به یک تجربهٔ خلاقانه و لذت‌بخش تبدیل کنیم.

لینک‌های مفید

تماس با ما

 

تبلیغات در فوت و فن

 

درباره ما

Facebook Twitter Instagram Linkedin Tumblr Youtube Email

حامیان

2010-2025@ - All Right Reserved. Designed and Developed by FOOTOFAN

فوت و فن
  • دانش و فن
    • موبایل و تبلت
    • هوش مصنوعی
    • اپراتورها و وب
    • برنامه و نرم افزار
    • دنیای بازی
    • گوناگون
      • سخت افزار
      • تلویزیون
  • اقتصاد
    • اقتصاد بین الملل
    • بازارها
    • بانکداری و تجارت الکترونیک
    • خودرو
    • وبگردی
    • رپورتاژ
  • ورزش
    • فوتبال
    • موتوری
    • تنیس
  • سبک زندگی
    • سلامت
    • تغذیه
    • طبیعت
    • حیوانات
    • خلاقیت
    • آشپزی
  • گردشگری
    • گردشگری
  • فرهنگ و هنر
    • فیلم و سریال
    • کتاب و مجله
    • آثار باستانی
    • صنایع دستی
  • چند رسانه‌ای
    • عکس
    • ویدیو
    • خودمونی
    • همیاری
  • English