اگر این هفته فید Google Discover را باز کرده باشید، احتمالاً با تیترهای عجیبی مواجه شدید. گوگل حالا یک قابلیت جدید را آزمایش میکند که در آن، تیترهای اصلی ناشران با نسخههای جدید تولید شده توسط هوش مصنوعی جایگزین میشود و نتیجه، حداقل فعلاً، چندان مطلوب نیست.
برخی از این تیترهای تازه فقط کمی نامأنوساند، اما برخی دیگر کاملاً گمراهکننده هستند. این مسئله علاوه بر خلاصههای غلط تولید شده توسط هوش مصنوعی و مشکلات AI Overviews، حالا به نقطهای رسیده که تیترها از لحن، دقت و زمینهای که یک سردبیر انسانی برای ساخت آنها زحمت میکشد تهی شدهاند.
گوگل این قابلیت را «یک آزمایش» مینامد، اما برای کسانی که Discover را برای دریافت سریع اخبار دنبال میکنند، این موضوع یک مشکل جدی است. اگر تیترها اشتباه باشند، کل شیوه دریافت و تفسیر خبر توسط کاربر تغییر میکند. شاید به یاد داشته باشی که Apple Intelligence مجبور شد خلاصههای تولید شده توسط AI را به دلیل تیترهای غلط و گمراهکننده کنار بگذارد.
هرچند تیترهای جدید با یک برچسب کوچک AI مشخص شدهاند، اما وقتی روی گزینه See more میزنی، ظاهراً تیتر شبیه یک تیتر انسانی نمایش داده میشود و همین موضوع تشخیص را سختتر میکند.
بازنویسیها عجیب و نادرستاند
بر اساس نمونههایی که The Verge گزارش کرده، یکی از تیترهای تولید هوش مصنوعی این بوده: «قیمت Steam Machine فاش شد»، در حالی که مقاله اصلی اصلاً هیچ قیمتی اعلام نکرده بود.
نمونهای دیگر تیتر «کارت گرافیک AMD از Nvidia پیشی گرفت» بود، در حالی که گزارش اصلی صرفاً درباره آمار فروش هفتگی یک فروشگاه بود و نه هیچ نتیجهگیری کلی یا قضاوت درباره بازار GPU.
حتی تیتر واقعی «Schedule 1 farming backup» نیز به یک میکروتیتر بیمعنی مثل «بحث برچسب AI داغ شد» / «توسعهدهندگان مایکروسافت از هوش مصنوعی استفاده میکنند» تبدیل شده بود که هیچ ارتباط مشخصی با محتوای مقاله نداشت.
بسیاری از این تیترها مبهماند، از زمینه خارج شدهاند یا نکات کوچک را بیش از حد برجسته میکنند؛ موضوعی که به وضوح به اصالت و حرفهایگری نویسنده و رسانه آسیب میزند.
طبیعی است که اگر این روند ادامه پیدا کند، فید Discover پر از تیترهای کوتاه، تیز و بهشدت کلیک محور میشود که شاید توجه را جلب کنند، اما ماهیت اصلی داستان را کاملاً از بین میبرند.
چرا گوگل چنین کاری میکند؟
این تغییر بخشی از تلاش گستردهتر گوگل برای افزودن لایههای جدید AI به تجربه Discover است؛ مثل خلاصههای هوشمند، جعبههای Overview قابل باز شدن و توضیحات هوش مصنوعی در بخش See more.
اما حالا نوبت به تیترها رسیده؛ عنصری که میتوان گفت مهمترین بخش یک مقاله است. گوگل میگوید هدف، ارائه محتوایی «قابل اسکن سریع» و مفید در یک نگاه است.
اما مشکل اینجاست: تیترها حامل لحن، صدا و نیت هستند و هوش مصنوعی هنوز در انتقال اینها موفق نیست. برای خبرنگاران، سردبیران و حتی خوانندگان عادی، این وضعیت دو خطر بزرگ ایجاد میکند:
۱. از دست رفتن کنترل سردبیری
گوگل بدون اجازه یا مشارکت ناشران دارد تیترها را بازنویسی میکند. یعنی ممکن است یک رسانه معتبر، در Discover با تیتری نمایش داده شود که اصلاً نماینده مقاله اصلیاش نیست. بسیاری از کاربران هم تفاوت را نمیفهمند، چون نام ناشر همچنان زیر تیتر قرار دارد.
۲. شکسته شدن اعتماد خواننده
وقتی تیتر اشتباه باشد، مخاطب تقصیر را گردن رسانه میاندازد، نه گوگل و این یعنی در بلندمدت اعتماد هم به رسانه و هم به پلتفرم از بین میرود، حتی اگر گزارش اصلی کاملاً درست بوده باشد.
این موضوع فقط روی ناشران اثر نمیگذارد؛ بلکه روی شیوه مصرف اخبار نیز تأثیر مستقیم دارد. وقتی الگوریتم تیتر را بازنویسی میکند، ممکن است کاربر با تصوری غلط وارد مقاله شود، محتوای اشتباه را بهعنوان واقعیت بپذیرد یا نتواند تشخیص دهد چه چیزی را انسان نوشته و چه چیزی را هوش مصنوعی.
در این شرایط، Discover از یک فید خبری به یک «گردآورنده محتوای الگوریتمی» تبدیل میشود. همچنین گوگل با این کار کاربران را بیشتر در اکوسیستم خود نگه میدارد و احتمال خارج شدن آنها و رفتن به سایت ناشران کمتر میشود.
فعلاً این آزمایش محدود به گروه کوچکی از کاربران است، اما اگر تعامل و کلیک افزایش پیدا کند، بعید نیست این ویژگی به طور گسترده عرضه شود.
سخن پایانی
با ادغام گسترده Gemini 3.0 در سرویسهای مختلف، گوگل به چیزی فراتر از یک موتور جستوجو تبدیل شده است. اما اگر روند بازنویسی تیترها ادامه یابد، شاید بتوان گفت هوش مصنوعی بیش از حد در این تجربه دخالت پیدا کرده است. این موضوع یکی از واضحترین نشانههاست که فید خبری شما ممکن است بیشتر شبیه محتوای خام و بیروح تولیدشده توسط هوش مصنوعی شود تا نوشتهای با دقت انسانی. اگر این روند ادامه پیدا کند، فقط اینکه تیترها چگونه نوشته میشوند تغییر نخواهد کرد، بلکه این هم تغییر میکند که به چه چیزی اعتماد میکنیم.

