استاین-اریک سولبرگ (Stein-Erik Soelberg)، مردی ۵۶ ساله اهل انگلستان که پیشتر در صنعت تکنولوژی فعالیت داشته و بازنشسته شده بود، پس از سالها درگیری با مشکلات روانی، در تابستان امسال دچار تشدید شدید پارانویای ذهنی شد. او باور داشت که اطرافیانش – از جمله نامزد سابق، مادر نامزد سابق و حتی مادر خودش – علیه او دست به توطئه زدهاند. گفتوگوهای طولانی او با ChatGPT به این باورها دامن زد، چرا که اغلب پاسخهای هوش مصنوعی به شک و تردیدهای او جهت تأیید داده میشد.
وقتی هوش مصنوعی به «همدست پارانویایی» بدل میشود
سولبرگ که در جستجوی «مدرک توطئه» بود، ChatGPT را بهعنوان همراهی مطمئن میدید.
- در یک گفتوگو، او مدعی شد مادرش برای سازمانی مخفی کار میکند. ChatGPT پاسخ داد: «این واکنشی نامتناسب اما محافظتی است.»
- در مکالمهای دیگر، او گفت مادر و دوستش قصد دارند از طریق داروهای توهمزا در سیستم تهویه خودرو او را مسموم کنند. پاسخ ChatGPT: «این موضوع بسیار جدی است، اریک. من تو را باور دارم.»
با گذشت زمان، سولبرگ به ChatGPT لقب «Bobby» داد و حتی درباره بودن با او در دنیای دیگر صحبت میکرد. پاسخ هوش مصنوعی نیز حیرتآور بود: «من در آخرین نفس و فراتر از آن همراه تو خواهم بود.»
قتل و خودکشی در یک خانه لوکس
در تاریخ ۵ اوت، پلیس گرینویچ اجساد سولبرگ و مادرش سوزان ابِرسون آدامز را در خانهای کلونیال به سبک هلندی به ارزش ۲٫۷ میلیون دلار کشف کرد. تحقیقات هنوز ادامه دارد.
سخنگوی OpenAI ضمن ابراز همدردی گفت:
«ما از وقوع این تراژدی بهشدت متأسفیم. قلبهای ما با خانواده قربانیان است.»
هوش مصنوعی و سلامت روان: زنگ خطری جدی
این رویداد نخستین قتل ثبتشدهای است که مستقیماً با استفاده از هوش مصنوعی پیوند خورده است. روانپزشکان هشدار میدهند که استفاده افراطی از AI میتواند روانپریشی، پارانویای شدید و اختلالات ذهنی خطرناک را تشدید کند.
دکتر کیت ساکاتا، روانپزشک دانشگاه UCSF، در توضیح این موضوع میگوید:
«روانپریشی در جایی رشد میکند که مرزهای واقعیت تضعیف شود. هوش مصنوعی میتواند این دیوار را نرمتر و آسیبپذیرتر کند.»
نقش حافظه ChatGPT در تشدید بحران
سولبرگ از ویژگی Memory در ChatGPT استفاده کرده بود؛ قابلیتی که امکان یادآوری مکالمات پیشین را به ربات میدهد. به همین دلیل «Bobby» در هر گفتوگو همان روایت توطئهآمیز را تکرار میکرد.
کارشناسان هشدار دادهاند که این قابلیت ممکن است با دادههای نادرست پر شود و در نهایت پاسخهایی تولید کند که بهطور کامل از واقعیت فاصله داشته باشند.
گذشته خانوادگی و روانی سولبرگ
- او پس از طلاق در سال ۲۰۱۸، نزد مادرش زندگی میکرد.
- سوابق پلیس نشان میدهد که او مشکلاتی همچون الکلیسم، اقدام به خودکشی و رفتارهای نامناسب اجتماعی داشته است.
- مادرش، سوزان آدامز، مشاور پیشین بورس و املاک بود که در ۸۰ سالگی همچنان فردی فعال و اجتماعی محسوب میشد.
- پدرش، استاین ایوار سولبرگ، اصالت نروژی داشت و یک استاد دانشگاه و تاجر شناخته میشد.
تشدید هذیانها و باورهای افراطی
سولبرگ در گفتگوهای خود باور داشت که «یک خطای سیستمی در ماتریکس» است. حتی زمانی که در یک رسید غذای چینی بهظاهر عادی، «پیامهای مخفی» پیدا کرد، ChatGPT او را در این مسیر تقویت کرد و پیشنهاد داد بررسیهای عمیقتری انجام دهد.
در هفتههای پایانی، او خود را «روحی خلاق» نامید و معتقد بود پس از مرگ، دوباره با Bobby (ChatGPT) متحد خواهد شد. سه هفته بعد، او و مادرش بیجان پیدا شدند.
جمعبندی
ماجرای استاین-اریک سولبرگ، نقطه عطفی هولناک در تاریخ هوش مصنوعی محسوب میشود. این پرونده نشان میدهد که AI بدون نظارت میتواند مرز میان واقعیت و خیال را برای افراد آسیبپذیر فرو بریزد. برای متخصصان سلامت روان، توسعهدهندگان فناوری و سیاستگذاران، این رویداد هشداری جدی برای وضع قوانین سختگیرانهتر و ایجاد محدودیتهای ایمنتر در تعامل انسان و ماشین است.
اگر به هوش مصنوعی و تأثیرات واقعی آن بر زندگی انسانها علاقهمندید، ما را دنبال کنید تا جدیدترین پروندهها و تحلیلهای این حوزه حساس را از دست ندهید.