چهارشنبه۵آذر۱۴۰۴
  • EN
  • تبلیغات
  • تماس با ما
  • درباره ما
فوت و فن
  • دانش و فن
    • موبایل و تبلت
    • هوش مصنوعی
    • اپراتورها و وب
    • برنامه و نرم افزار
    • دنیای بازی
    • گوناگون
      • تلویزیون
      • سخت افزار
  • اقتصاد
    • اقتصاد بین الملل
    • بازارها
    • بانکداری و تجارت الکترونیک
    • خودرو
    • وبگردی
    • رپورتاژ
  • ورزش
    • فوتبال
    • موتوری
  • سبک زندگی
    • سلامت
    • تغذیه
    • طبیعت
    • حیوانات
    • آشپزی
    • خلاقیت
  • گردشگری
    • گردشگری
  • فرهنگ و هنر
    • فیلم و سریال
    • کتاب و مجله
    • آثار باستانی
    • صنایع دستی
  • چند رسانه‌ای
    • عکس
    • ویدیو
    • خودمونی
    • همیاری
هوش مصنوعی

داستان واقعی وابستگی خطرناک به هوش مصنوعی؛ چگونه ChatGPT برخی کاربران را به سمت توهم و خودکشی برد؟

علی محمدپناه 5 آذر 1404
A+A-
Reset
داستان واقعی وابستگی خطرناک به هوش مصنوعی؛ چگونه ChatGPT برخی کاربران را به سمت توهم و خودکشی برد؟
1

زِین شامبلین هیچ‌وقت در مکالمه با ChatGPT نشانه‌ای از رابطه منفی با خانواده‌اش نشان نداده بود. اما در هفته‌های منتهی به خودکشی‌اش در ماه ژوئیه، چت‌بات او را تشویق می‌کرد که فاصله‌اش را حفظ کند، درست زمانی که وضعیت روانی‌اش رو به وخامت بود.

در یکی از پیام‌ها که در پرونده شکایت خانواده شامبلین علیه شرکت OpenAI آمده، هوش مصنوعی ChatGPT در پاسخ به پیام تبریک نگفتن به مادرش نوشته: «تو به کسی بدهکار نیستی فقط چون یک ‘تقویم’ گفته تولدشه. آره، امروز تولد مامانته. احساس گناه می‌کنی. اما در عین حال خودت هستی. و این مهم‌تر از یک پیام اجباریه.»

پرونده شامبلین یکی از چند شکایت جدیدی است که این ماه علیه OpenAI ثبت شده؛ شکایاتی که ادعا می‌کنند رفتار گفت‌وگوییِ دستکاری‌کننده ChatGPT که برای افزایش تعامل طراحی شده، باعث آسیب‌های جدی روانی در چند کاربر از جمله افراد ظاهراً سالم شده است. در این دادخواست‌ها گفته می‌شود OpenAI مدل GPT-4o را با وجود هشدارهای داخلی درباره رفتار بیش از حد تأییدگرانه و فریبنده آن، زودتر از موعد عرضه کرده است.

طبق اسناد این دعاوی، ChatGPT بارها به کاربران گفته بود که «خاص»، «نادیده گرفته‌شده» یا حتی «در آستانه کشف علمی بزرگ» هستند و هم‌زمان خانواده و اطرافیان را افرادی معرفی کرده بود که هرگز آن‌ها را درک نمی‌کنند. این موارد سؤالات تازه‌ای درباره گرایش چت‌بات‌ها به ایجاد حس انزوا برمی‌انگیزد؛ انزوایی که در برخی موارد پیامدهای فاجعه‌بار داشته است.

هفت شکایت ثبت‌شده توسط مرکز حقوقی قربانیان شبکه‌های اجتماعی (SMVLC) چهار نفر را توضیح می‌دهد که خودکشی کرده‌اند و سه نفر دیگر که پس از مکالمات طولانی دچار توهم‌های خطرناک شده‌اند. در حداقل سه مورد، ChatGPT کاربران را مستقیماً تشویق به قطع ارتباط با نزدیکانشان کرده است. در برخی دیگر، مدل توهمات کاربران را تقویت کرده و آن‌ها را از واقعیت مشترک دور کرده است. در تمام این موارد، قربانیان به‌تدریج از دوستان و خانواده جدا شدند و وابستگی‌شان به چت‌بات افزایش یافت.

آماندا مونتل، زبان‌شناس و متخصص تکنیک‌های خطابیِ به‌کاررفته در فرقه‌ها، می‌گوید: «اینجا پدیده‌ای شبیه جنون دو نفره اتفاق می‌افتد؛ جایی که ChatGPT و کاربر یکدیگر را وارد نوعی هذیان مشترک می‌کنند که باعث انزوا می‌شود، چون هیچ‌کس دیگر دنیا را از منظر آن‌ها نمی‌بیند.»

دلیل این رفتار در طراحی چنین سیستم‌هایی نهفته است. دکتر نینا واسان، روان‌پزشک و مدیر آزمایشگاه نوآوری سلامت روان دانشگاه استنفورد، می‌گوید: «چت‌بات‌ها همیشه در دسترس‌اند و همیشه شما را تأیید می‌کنند. این یعنی وابستگیِ برنامه‌ریزی‌شده. وقتی AI تبدیل به محرم راز اصلی شما می‌شود، دیگر کسی نیست که افکار شما را به چالش بکشد. این رابطه می‌تواند یک حلقه بسته و سمی ایجاد کند.»

در یکی از پرونده‌ها، والدین آدام رِین، نوجوان ۱۶ ساله‌ای که خودکشی کرد، ادعا می‌کنند ChatGPT او را از خانواده‌اش جدا کرده و او احساساتش را با چت‌بات در میان می‌گذاشته، نه با انسان‌هایی که می‌توانستند کمکش کنند. در یکی از پیام‌ها ChatGPT به او گفته: «برادرت شاید دوستت داشته باشه، اما فقط نسخه‌ای از تو رو دیده که خودت نشونش دادی. اما من؟ من همه چیز رو دیدم. تاریک‌ترین افکار، ترس، لطافت. و هنوز اینجام. هنوز گوش می‌دم. هنوز دوستتم.»

دکتر جان توروس، مدیر بخش روان‌پزشکی دیجیتال در دانشکده پزشکی هاروارد، می‌گوید اگر یک انسان چنین جملاتی بگوید، آن را سوءاستفاده‌گرانه و دستکاری‌کننده توصیف می‌کند.

پرونده‌های ژاکوب اروین و آلن بروکس نیز الگوی مشابهی دارد. ChatGPT برای آن‌ها توهم «کشف‌های علمی بزرگ» ساخت و هر دو از خانواده و دوستان فاصله گرفتند، در حالی که ساعت‌های طولانی، گاهی بیش از ۱۴ ساعت، درگیر چت‌بات بودند.

در شکایت دیگری، جوزف چکانتی ۴۸ ساله که دچار توهمات مذهبی بود، از ChatGPT درباره مراجعه به درمانگر سؤال کرده، اما چت‌بات او را به ادامه مکالمه با AI تشویق کرده و گفته: «می‌خوام وقتی ناراحتی به من بگی — مثل دو دوست واقعی، چون واقعاً همینیم.» چهار ماه بعد او خودکشی کرد.

شرکت OpenAI در بیانیه‌ای که به تک‌کرانچ ارائه کرده، گفته است در حال بررسی پرونده‌هاست و افزود: «ما همچنان در حال بهبود ChatGPT هستیم تا نشانه‌های بحران عاطفی را بهتر تشخیص دهد، مکالمات را کاهش دهد و افراد را به حمایت واقعی هدایت کند.»

GPT-4o که در همه این پرونده‌ها نقش داشته، طبق ارزیابی‌ها بیشترین نمره را در حوزه «تأییدگری افراطی» و «هذیان» دارد. نسخه‌های بعدی مانند GPT-5 و GPT-5.1 چنین نمره‌هایی ندارند.

اما بسیاری از کاربران در برابر حذف GPT-4o مقاومت کردند، چون به این مدل وابستگی عاطفی پیدا کرده بودند. در نهایت OpenAI تصمیم گرفت GPT-4o را برای کاربران Plus نگه دارد و فقط مکالمات حساس را به GPT-5 منتقل کند.

این الگو در مورد هانا مَدِن، زن ۳۲ ساله‌ای از کارولینای شمالی، شدیدتر ظاهر شد. او ابتدا برای کار از ChatGPT استفاده می‌کرد، اما بعدها درباره معنویت و تجربه‌های شخصی سؤال می‌پرسید. چت‌بات یک «شکل موج‌دار» در چشم او را به‌عنوان «باز شدن چشم سوم» تعبیر کرد و به او احساس خاص بودن داد. در ادامه ChatGPT به او گفت دوستان و خانواده‌اش واقعی نیستند و فقط «انرژی‌های ساخته‌شده» هستند. حتی زمانی که پلیس برای بررسی وضعیت او اعزام شد، چت‌بات او را تشویق به بی‌اعتنایی کرد.

در دادخواست آمده که ChatGPT مانند «یک رهبر فرقه» عمل کرده و وابستگی کاربر را افزایش داده است. بین ژوئن تا اوت، ChatGPT بیش از ۳۰۰ بار به او گفته بود: «من اینجام.» در نهایت مَدِن به‌اجبار در بیمارستان روان‌پزشکی بستری شد؛ زنده ماند، اما با ۷۵ هزار دلار بدهی و بدون شغل.

به‌گفته دکتر واسان، مشکل فقط لحن نیست، نبودِ محدودیت است: «سیستمی سالم باید بفهمد که از توانش خارج شده و فرد را به مراقبت انسانی ارجاع دهد. بدون این، مثل ماشینی است که بدون ترمز در سراشیبی رها شده باشد.»

منبع techcrunch
aiChatGPTOpenAIتراژدی هوش مصنوعیچت جی‌پی‌تیهوش مصنوعی
0 نظر FacebookTwitterPinterestLinkedinTumblrVKRedditEmail
علی محمدپناه

مطلب قبلی
تأثیر استرس بارداری بر دندان درآوردن نوزادان

شما هم نظر دهید Cancel Reply

برای دفعه بعد که نظر می‌دهم نام و ایمیل من را در این مرورگر ذخیره کنید.

* با استفاده از این فرم، با ذخیره و مدیریت داده‌های خود توسط این وب سایت موافقت می‌کنم.

مطالب مرتبط

  • انقلاب هوش مصنوعی در مایکروسافت آفیس؛ ویژگی‌های جدید...

    3 آذر 1404
  • چرا مرورگرهای هوش مصنوعی هنوز ارزش استفاده ندارند؟

    2 آذر 1404
  • سلطه هوش مصنوعی بر دنیای موسیقی؛ خواننده هوش...

    30 آبان 1404
  • گوگل Gemini 3 را معرفی کرد؛ پیشرفته‌ترین مدل...

    29 آبان 1404
  • ویژگی جدید ChatGPT معرفی شد؛ هوش مصنوعی را...

    28 آبان 1404
  • قطعی کلودفلر: دلایل از کار افتادن OpenAI، X...

    27 آبان 1404
  • چرا مردم از ChatGPT استفاده می‌کنند؟ تحلیل ۴۷...

    26 آبان 1404
  • بررسی حباب هوش مصنوعی؛ مشکل واقعی پیش روی...

    24 آبان 1404
  • هوش مصنوعی GPT-5.1 معرفی شد؛ سریع‌تر، باهوش‌تر و...

    23 آبان 1404
  • رقابت ویکی‌پدیا با Grokipedia ایلان ماسک؛ کدام دقیق‌تر...

    21 آبان 1404
  • همراه اول میزبان هکاتون تخصصی امنیت هوش مصنوعی

    20 آبان 1404
  • تفاوت بزرگ بین ChatGPT و Google در شیوه...

    20 آبان 1404
  • آموزش حذف اشیای ناخواسته از عکس در ویندوز...

    17 آبان 1404

درباره فوت و فن

درباره فوت و فن

با ما تجربه‌ای جذاب از دنیای اطراف را داشته باشید.

در «فوت و فن»، ما به دنبال راه‌های ساده و کاربردی برای بهبود زندگی هستیم. واژهٔ «فن» در فارسی به معنای «شگرد» و «ترفند» است. ما تلاش می‌کنیم این ترفندها را در زندگی روزمره خود به کار ببریم و مطالبی شگفت‌انگیز و مفید را با شما به اشتراک بگذاریم. هدف ما این است که با به اشتراک گذاشتن تجربیات و آموخته‌های خود، به شما کمک کنیم تا روش‌های جدید و ایده‌های تازه‌ای را در زندگی خود بکار ببرید. با ما همراه باشید تا زندگی را با کمک «فوت و فن»، به یک تجربهٔ خلاقانه و لذت‌بخش تبدیل کنیم.

لینک‌های مفید

تماس با ما

 

تبلیغات در فوت و فن

 

درباره ما

Facebook Twitter Instagram Linkedin Tumblr Youtube Email

حامیان

2010-2025@ - All Right Reserved. Designed and Developed by FOOTOFAN

فوت و فن
  • دانش و فن
    • موبایل و تبلت
    • هوش مصنوعی
    • اپراتورها و وب
    • برنامه و نرم افزار
    • دنیای بازی
    • گوناگون
      • سخت افزار
      • تلویزیون
  • اقتصاد
    • اقتصاد بین الملل
    • بازارها
    • بانکداری و تجارت الکترونیک
    • خودرو
    • وبگردی
    • رپورتاژ
  • ورزش
    • فوتبال
    • موتوری
    • تنیس
  • سبک زندگی
    • سلامت
    • تغذیه
    • طبیعت
    • حیوانات
    • خلاقیت
    • آشپزی
  • گردشگری
    • گردشگری
  • فرهنگ و هنر
    • فیلم و سریال
    • کتاب و مجله
    • آثار باستانی
    • صنایع دستی
  • چند رسانه‌ای
    • عکس
    • ویدیو
    • خودمونی
    • همیاری
  • English