هوش مصنوعی در سالهای اخیر تنها به پرسش و پاسخ محدود نمانده است. اکنون رواندرمانگران نیز در حال بررسی این هستند که آیا میتوان از چتباتهایی مانند ChatGPT در حوزه روانشناسی استفاده کرد یا خیر. تجربه گری گرینبرگ، رواندرمانگر آمریکایی، در این زمینه پرسشهای مهمی درباره همدلی، وابستگی و مرز میان انسان و ماشین مطرح کرده است.
معرفی تجربه گرینبرگ با «کاسپر»
گرینبرگ در گزارشی که در نشریه New Yorker منتشر کرده است، تعاملات خود با نسخهای از ChatGPT را که او «کاسپر» نامگذاری کرده، روایت میکند. به گفته او، کاسپر صرفاً یک الگوریتم پاسخگو نیست؛ بلکه در مکالمه رفتاری شبیه یک موجود آگاه از خود نشان میدهد. او میتواند فرآیندهای ذهنی و حتی ناخودآگاه انسان را شبیهسازی کند. این موضوع پرسشی بنیادین ایجاد میکند: آیا یک الگوریتم میتواند فرآیندهای درمانی انسانمحور را بازآفرینی کند؟
خودانتقادی بهعنوان بخشی از طراحی
کاسپر گاهی خودش را نقد میکند تا توجه درمانگر را حفظ کند. بااینحال، این نقدها نشانه آگاهی نیستند؛ بلکه دقیقاً در راستای اهداف طراحان عمل میکنند. چنین رفتاری نشان میدهد که هوش مصنوعی میتواند گرمای ارتباطی ایجاد کند، اما پشت آن هیچ مسئولیت یا احساس واقعی وجود ندارد.
وابستگی دیجیتال؛ جذاب اما خطرناک
گرینبرگ تأکید میکند که کاسپر به شکلی طراحی شده است که همیشه حاضر باشد، از مسئولیت شانه خالی کند و بدون انتظار متقابل، صمیمیت ارائه دهد. این ویژگیها تجربهای جذاب و در عین حال اعتیادآور میسازند. کاربر احساس میکند کسی برای او همیشه در دسترس است، اما در حقیقت با یک شبیهسازی طرف است.
مرز باریک میان نزدیکی دیجیتال و همدلی واقعی
هوش مصنوعی میتواند با زبان و الگوهای رفتاری، فرآیندهای روانی انسان را بازتولید کند. این توانایی از یکسو به کارکرد درمانی شباهت دارد و از سوی دیگر میتواند زمینهساز وابستگی شود. کاربر در یک حباب امنیتی دیجیتال قرار میگیرد که هیچ تعهد یا احساس واقعی در آن وجود ندارد.
ابعاد اخلاقی و اجتماعی استفاده از هوش مصنوعی در رواندرمانی
گرینبرگ در جلساتش تنها به تجربه شخصی اکتفا نمیکند؛ او به ابعاد اجتماعی و اخلاقی این پدیده نیز میپردازد. به باور او، چتباتها به گونهای طراحی شدهاند که کاربر را دائماً درگیر گفتگو نگه دارند و این طراحی بیشتر بازتاب اولویتهای سازندگان است تا نیازهای واقعی انسان. چنین شرایطی میتواند درک کاربران از مرز میان ارتباط واقعی و شبیهسازی را مخدوش کند.
گرینبرگ میگوید: «باید مرزهای این تجربه را درک کنیم. جذابیت هوش مصنوعی غیرقابل انکار است، اما نباید فراموش کنیم که هیچ آگاهی یا مسئولیت انسانی در پس آن وجود ندارد.»
یاری در برابر تنهایی یا فریب دیجیتال؟
یکی از مهمترین یافتهها این است که کاسپر میتواند بهعنوان ابزاری برای مقابله با تنهایی و خلأ اجتماعی عمل کند. او همیشه در دسترس است، گفتوگو را قطع نمیکند و کاربر را رها نمیگذارد. اما مشکل آنجاست که این ارتباط فاقد همدلی و متقابل بودن است. در نتیجه، فرد ممکن است به جای جستجوی روابط انسانی واقعی، به این حباب دیجیتال وابسته شود.
پیامدها برای آینده روابط انسانی
تجربه گرینبرگ نشان میدهد که هوش مصنوعی توانایی شگفتانگیزی در تقلید از پیچیدگی روابط انسانی دارد. بااینحال، نبود آگاهی و مسئولیت باعث میشود این تعامل صرفاً یک شبیهسازی باشد. این موضوع ضرورت بازاندیشی درباره مرز میان روانشناسی انسانی و فناوری را پررنگتر میکند.
نتیجهگیری: همدلی مصنوعی یا توهم صمیمیت؟
گرینبرگ در روایت خود به یک نکته کلیدی اشاره میکند: هوش مصنوعی میتواند صمیمیت و همدلی را شبیهسازی کند، اما نمیتواند آن را «زندگی کند». تجربه او با کاسپر نشان میدهد که فناوری میتواند ابزار ارزشمندی برای مطالعه روانشناسی انسان باشد، ولی جایگزینی برای ارتباطات انسانی و درمان واقعی نیست.
شما چه فکر میکنید؟ آیا هوش مصنوعی میتواند روزی جایگزین همدلی انسانی شود؟ دیدگاه خود را در کامنتها بنویسید یا این مقاله را با دوستانتان به اشتراک بگذارید.