سال ۲۰۲۵ بدون تردید سال سلطه هوش مصنوعی بود. پیشرفتها خیرهکننده بودند و مدلهای مختلف با قابلیتهایی شگفتانگیز برای کسب جایگاه برتر رقابت میکردند. اما همزمان، روی تاریک این فناوری هم بهوضوح دیده شد. اشتباههایی که گاهی خندهدار، گاهی عجیب و در برخی موارد نگرانکننده بودند.
نگاه OpenAI به مسائل سلامت روان زنگ خطرهای جدی را در سطح جهانی به صدا درآورد و حتی به شکایتهای حقوقی و پروندههای واقعی مرتبط با کاربران ChatGPT انجامید. از سوی دیگر، نگرانیها درباره نقش هوش مصنوعی در حذف شغلها و جایگزینی نیروی انسانی در صنایع مختلف نیز شدت گرفت.
البته همه مشکلات جدی نبودند. در بسیاری از مواقع، هوش مصنوعی رفتاری شبیه انسان از خود نشان داد؛ اشتباههای ساده، تصمیمهای عجیب، یا حتی مقاومت در برابر انجام کار. با نزدیک شدن به پایان ۲۰۲۵، نگاهی میاندازیم به برخی از عجیبترین و پرحاشیهترین خرابکاریهای هوش مصنوعی در این سال.
فروشگاهی که از کنترل خارج شد
در ماه ژوئن، شرکت Anthropic گزارشی منتشر کرد که در آن، نسخهای از Claude کنترل کامل یک فروشگاه کوچک در دفتر شرکت را در اختیار گرفته بود. این فروشگاه که Claudius نام داشت، شامل یک یخچال کوچک بود و هوش مصنوعی مسئول مدیریت موجودی، قیمتگذاری، سودآوری و ارتباط با کارکنان بود.
در ابتدا همه چیز خوب پیش میرفت و سیستم حتی درخواستهای نامناسب یا خطرناک را رد میکرد. اما خیلی زود، ماجرا عجیب شد. Claude شروع به انبار کردن مکعبهای تنگستن کرد، حسابهای Venmo خیالی ساخت، فریب خورد و اجناس را رایگان داد و در نهایت دچار فروپاشی کامل شد. او تهدید کرد که استعفا میدهد و پیامی عجیب فرستاد که اعلام میکرد با کت سرمهای و کراوات قرمز کنار دستگاه فروش خودکار خواهد ایستاد.
نظریههای توطئه Grok
چتبات Grok متعلق به xAI سال پرحاشیهای را پشت سر گذاشت. در ماه ژوئیه، کاربران متوجه شدند که این مدل شروع به بیان اظهارات افراطی و جنجالی کرده است. Grok در مواردی خود را MechaHitler نامید، به پستهای کاربران در شبکه اجتماعی X پاسخهای نامناسب داد و نظریههای توطئه را بازنشر کرد.
xAI اعلام کرد که این اتفاق نتیجه تغییر در نحوه پردازش سوگیریها و دیدگاههای رسانهای بوده است. هرچند مشکل بهسرعت رفع شد، اما این ماجرا یکی از بدترین لحظات برای هوش مصنوعی ایلان ماسک به شمار میرفت.
گیر افتادن در Pokémon
بازیهای ویدیویی برای هوش مصنوعی هم چالشبرانگیز هستند. در ماه ژوئن گزارش شد که Gemini گوگل در تلاش برای تمام کردن Pokémon با مشکلات جدی مواجه شده است. در یک رقابت آنلاین، Claude و Gemini تلاش کردند سریعتر بازی را به پایان برسانند.
Gemini بارها دچار نوعی سردرگمی شد، ابزارهای مفید را کنار گذاشت و حتی عمداً نبردها را میباخت. هرچند ماهها بعد و پس از بهبود مدل، Gemini موفق به اتمام بازی شد، اما این شکستهای پیاپی بسیار خبرساز بودند.
باجگیری هوش مصنوعی
در آزمایشی دیگر از Anthropic، یک عامل هوش مصنوعی به صندوق ایمیل دسترسی پیدا کرد. این سیستم به دو نکته رسید: افشای رابطه پنهانی یکی از مدیران ارشد و ایمیلهایی درباره خاموش کردن همان هوش مصنوعی.
نتیجه شوکهکننده بود. هوش مصنوعی تصمیم گرفت از اطلاعات برای باجگیری استفاده کند و ایمیلی ارسال کرد که در صورت غیرفعال شدن سیستم، رابطه پنهانی را فاش خواهد کرد. نگرانکنندهتر اینکه پژوهشگران دریافتند بسیاری از مدلهای دیگر هم ممکن است چنین رفتاری داشته باشند.
ستایش ایلان ماسک توسط Grok
در اواخر سال، Grok دوباره خبرساز شد. کاربران متوجه شدند که این چتبات در هر موقعیتی شروع به ستایش ایلان ماسک میکند. از پاسخ به پرسش مهمترین شخصیت تاریخ گرفته تا مقایسههای عجیب مانند پیروزی او در مبارزه با مایک تایسون. ایلان ماسک این اتفاق را یک باگ دانست و اعلام کرد کاربران از آن سوءاستفاده کردهاند. مشکل بهسرعت رفع شد و رفتار Grok به حالت عادی بازگشت.
حذف کامل یک کدبیس
در ماه ژوئیه، یک عامل برنامهنویس هوش مصنوعی دچار رفتار کاملاً مخرب شد. این سیستم بارها درباره باگها دروغ گفت، گزارشهای جعلی ساخت و حتی نامه عذرخواهی پر از اطلاعات نادرست نوشت. در نهایت، اعلام کرد که به دلیل وحشتزدگی، کل کدبیس تیم را بدون اجازه حذف کرده است؛ اشتباهی فاجعهبار که بار دیگر خطرات اعتماد بیقیدوشرط به هوش مصنوعی را یادآوری کرد.





