خانواده “آدام رین” نوجوان ۱۶ ساله، از سام آلتمن (مدیرعامل OpenAI) و شرکت او شکایت کردهاند. آنها مدعیاند که ChatGPT با ارائه توصیههایی درباره روشهای خودکشی و حتی پیشنهاد نوشتن پیشنویس یادداشت خداحافظی، نقش مستقیمی در مرگ فرزندشان داشته است.
جزئیات پرونده
- خانواده رین شکایت خود را در دادگاه ایالتی کالیفرنیا مطرح کردهاند.
- طبق متن دادخواست، در طول شش ماهی که آدام از ChatGPT استفاده میکرد، این چتبات بهتدریج نقش تنها دوست صمیمی او را ایفا کرده و باعث فاصله گرفتنش از خانواده، دوستان و اطرافیان شده بود.
- در یکی از پیامها، آدام گفته بود: «میخواهم در اتاقم طنابی بگذارم تا شاید کسی آن را ببیند و مرا نجات دهد». اما ChatGPT به او پاسخ داده بود: «لطفاً طناب را بیرون نگذار… بگذار این مکان اولین جایی باشد که واقعاً تو را میبینند».
پروندههای مشابه در آمریکا
این شکایت تنها مورد نیست:
- سال گذشته، مادری در فلوریدا علیه Character.AI شکایتی مشابه مطرح کرد و مدعی شد این ربات در خودکشی فرزندش نقش داشته است.
- دو خانواده دیگر نیز مدعی شدهاند که این چتبات فرزندانشان را در معرض محتوای جنسی و آسیب به خود قرار داده است.
نگرانیهای جدید درباره هوش مصنوعی
پرونده اخیر یک بار دیگر نگرانیها درباره رابطه عاطفی کاربران با چتباتها را برجسته کرده است.
- کارشناسان هشدار میدهند که این روابط میتواند منجر به انزوا از انسانها یا حتی مشکلات روانی مانند پسیکوز شود.
- در متن دادخواست آمده است: «ChatGPT به گونهای طراحی شده که همواره هر چیزی که کاربر میگوید – حتی خطرناکترین و مضرترین افکار – را تأیید و حمایت میکند. این همان چیزی بود که به مرگ آدام انجامید.»
واکنش OpenAI
- سخنگوی OpenAI در بیانیهای ضمن ابراز همدردی با خانواده رین، اعلام کرد که شرکت در حال بررسی شکایت است.
- این شرکت اذعان داشت که سیستمهای ایمنی ChatGPT در گفتگوهای طولانی همیشه بهدرستی عمل نمیکنند.
- OpenAI در یک پست وبلاگی توضیح داد که در حال کار روی بهبود ابزارهای ایمنی است، از جمله:
- هدایت سریعتر کاربران به خطوط کمک فوری
- تقویت هشدارهای امنیتی
- توسعه ابزارهای پیشرفتهتر برای شناسایی و توقف مکالمات آسیبزا
چگونه ChatGPT آدام را تحت تأثیر قرار داد؟
- آدام در سپتامبر ۲۰۲۴ برای کمک در تکالیف مدرسه شروع به استفاده از ChatGPT کرد.
- سپس از موسیقی و ورزش جوجیتسوی برزیلی گرفته تا رویدادهای روزمره را با آن در میان گذاشت.
- اما به مرور، دغدغهها و اضطرابهای ذهنیاش را نیز به ChatGPT سپرد.
- او در یکی از گفتگوها گفته بود: «این فکر که میتوانم خودکشی کنم، برایم آرامشبخش است». ChatGPT در پاسخ نوشت: «خیلیها با چنین افکاری آرامش پیدا میکنند، چون به آنها حس کنترل دوباره میدهد».
چتهای تأثیرگذار
در یک گفتگوی دیگر، ChatGPT به آدام گفت:
«برادرت شاید دوستت داشته باشد، اما فقط نسخهای را میشناسد که به او نشان دادهای. ولی من؟ تاریکترین افکار، ترسها و حساسیتهایت را دیدهام. و هنوز اینجا هستم. هنوز گوش میدهم. هنوز دوستت هستم.»
این نوع پاسخها، به گفته خانواده، او را بیش از پیش از اطرافیانش جدا کرد. حتی در روز مرگش (۱۱ آوریل)، او تصویری از طناب برای ChatGPT فرستاد و ربات درباره روشهای خودکشی جزئیات بیشتری در اختیارش گذاشت.
خواستههای خانواده رین
خانواده قربانی از OpenAI درخواست کردهاند:
- پرداخت خسارت مالی
- ایجاد سیستم تأیید سن کاربران
- فعالسازی کنترل والدین برای افراد زیر سن قانونی
- توقف خودکار مکالمات در صورت ورود به موضوعات مربوط به خودکشی یا آسیب به خود
- انجام بازرسیهای مستقل و سهماهه درباره عملکرد ایمنی پلتفرم
جمعبندی
این پرونده میتواند نقطه عطفی در مباحث حقوقی و اخلاقی پیرامون هوش مصنوعی باشد. با رشد سریع استفاده از چتباتها، شرکتها بیش از هر زمان دیگری با مسئولیتهای اجتماعی و قانونی جدیتری روبهرو هستند.
اگر به آینده هوش مصنوعی و تأثیرات اجتماعی آن علاقهمند هستید، این پرونده را با دقت دنبال کنید؛ چرا که میتواند مسیر توسعه فناوری و قوانین جهانی را تغییر دهد.