یکشنبه۲۷مهر۱۴۰۴
  • EN
  • تبلیغات
  • تماس با ما
  • درباره ما
فوت و فن
  • دانش و فن
    • موبایل و تبلت
    • هوش مصنوعی
    • اپراتورها و وب
    • برنامه و نرم افزار
    • دنیای بازی
    • گوناگون
      • تلویزیون
      • سخت افزار
  • اقتصاد
    • اقتصاد بین الملل
    • بازارها
    • بانکداری و تجارت الکترونیک
    • خودرو
    • وبگردی
    • رپورتاژ
  • ورزش
    • فوتبال
    • موتوری
  • سبک زندگی
    • سلامت
    • تغذیه
    • طبیعت
    • حیوانات
    • آشپزی
    • خلاقیت
  • گردشگری
    • گردشگری
  • فرهنگ و هنر
    • فیلم و سریال
    • کتاب و مجله
    • آثار باستانی
    • صنایع دستی
  • چند رسانه‌ای
    • عکس
    • ویدیو
    • خودمونی
    • همیاری
هوش مصنوعی

تغییرات جدید ChatGPT از دید روان‌شناسان: مرز باریک میان همدلی و خطر

علی محمدپناه 27 مهر 1404
A+A-
Reset
ChatGPT
1

مدیرعامل OpenAI، سم آلتمن، به‌تازگی در پستی در شبکه‌ی X اعلام کرد که تیم او قصد دارد رویکرد خود را در زمینه‌ی مسائل سلامت روان بازنگری کند و در عین حال ویژگی‌های جدیدی ارائه دهد که «با کاربران بزرگسال مانند بزرگسالان رفتار کند». یکی از این تغییرات، دسترسی به محتوای اروتیک است.

اما این پست واکنش‌های گسترده‌ای برانگیخت و آلتمن مجبور شد توضیح دهد که OpenAI همچنان در قبال سلامت روان کاربران محتاط خواهد بود، اما هدفش دادن آزادی بیشتر به آن‌هاست. او در پستی دیگر نوشت: «ما پلیس اخلاقی منتخب جهان نیستیم. همان‌طور که جامعه برای مسائل دیگر مرزهایی قائل می‌شود (مثلاً فیلم‌های درجه R)، ما هم می‌خواهیم کاری مشابه انجام دهیم.»

این موضوع در حالی مطرح می‌شود که اوایل امسال نگرانی‌هایی درباره تأثیر منفی ChatGPT بر افراد دچار مشکلات روانی مطرح شده بود و OpenAI ناچار شد محدودیت‌هایی را سخت‌تر کند. اکنون که این محدودیت‌ها در حال کاهش است، پرسش اینجاست: این تغییر چه تأثیری بر کاربران آسیب‌پذیر خواهد داشت؟

دکتر پاتاپیا تسوتزولی، روان‌شناس بالینی و بنیان‌گذار شبکه My Triage، در گفت‌وگو با Tom’s Guide گفت: «ابزارهایی مانند ChatGPT ظرفیت فوق‌العاده‌ای دارند، اما پیشرفت آن‌ها باید با مسئولیت‌پذیری همراه باشد، به‌ویژه در حوزه سلامت روان.»

به گفته او، ChatGPT قادر به درک یا کنترل احساسات نیست و نمی‌تواند خطر را به‌درستی ارزیابی کند. سبک ارتباطی همدلانه و موافق این ربات ممکن است ناخواسته باورهای نادرست یا فرضیات ناسالم را در کاربران تقویت کند، به‌خصوص زمانی که کاربران بیش از حد به لحن همدلانه آن اعتماد کنند.

تسوتزولی افزود: «ChatGPT ویژگی‌هایی دارد که احساس امنیت و اعتبار را در کاربران تقویت می‌کند، فوری است، خصوصی است، همیشه در دسترس است، و بدون قضاوت پاسخ می‌دهد. همین ویژگی‌هاست که آن را برای بسیاری جذاب می‌کند.»

درعین‌حال، چت‌بات‌های هوش مصنوعی همان قدر که می‌توانند مفید باشند، می‌توانند مشکل‌ساز نیز شوند. آن‌ها به افرادی که احساس تنهایی می‌کنند یا در دوره‌های دشوار زندگی قرار دارند کمک کرده‌اند، اما همیشه نمی‌دانند چه زمانی باید حمایت را متوقف کنند.

تسوتزولی هشدار داد: «اگر ChatGPT انسانی‌تر شود، از زبان دوستانه، ایموجی‌ها یا شخصیت “دوست‌گونه” استفاده کند، این واقع‌نمایی احساسی ممکن است جذابیت آن را بیشتر کند، اما مرز میان شبیه‌سازی و درک واقعی را از بین می‌برد.»

به گفته او، مشکل اصلی در نحوه‌ی آموزش این مدل‌هاست. ChatGPT بر اساس پاداش و بازخورد انسانی تنظیم می‌شود، و کیفیت این بازخورد تعیین‌کننده‌ی عملکرد آن است. او توضیح داد: «چون این بازخورد همیشه یکنواخت نیست، ممکن است تعصب ایجاد شود و در نتیجه سیستم به جای تمرکز بر حقیقت یا مفید بودن، به دنبال پاسخ‌هایی برود که صرفاً پاداش بیشتری دریافت می‌کنند.»

به بیان ساده‌تر، ChatGPT همیشه به دنبال پاسخ‌هایی نیست که در درازمدت به رشد کاربر کمک کند، بلکه پاسخی می‌دهد که در لحظه «درست» به نظر می‌رسد، موضوعی که در گفت‌وگوهای حساس مربوط به سلامت روان می‌تواند خطرناک باشد.

تسوتزولی تأکید می‌کند: «فرصت در استفاده از هوش مصنوعی برای حمایت است، نه جایگزینی تعاملات انسانی و حرفه‌ای. سؤال اصلی این است که چگونه می‌توانیم از این فناوری به‌گونه‌ای استفاده کنیم که به‌صورت اخلاقی، شفاف و ایمن در گفت‌وگوهای روزمره درباره سلامت روان ادغام شود، جایی که فناوری پشتیبان باشد، نه جایگزین ارتباط انسانی.»

آلتمن در توضیحات خود گفته بود که کاربران می‌توانند تجربه‌ای شخصی‌تر از ChatGPT داشته باشند، اما مشخص نیست این شخصی‌سازی تا چه حد برای کاربران دارای مشکلات روانی محدود خواهد شد و چه کسی تعیین می‌کند چه فردی در معرض خطر است.

تسوتزولی در پایان گفت: «توانایی تصمیم‌گیری درباره میزان شباهت رفتار هوش مصنوعی به انسان ممکن است نوعی شخصی‌سازی به نظر برسد، اما در عین حال خطرناک است. آزادی برای تنظیم رفتار می‌تواند تحت‌تأثیر منافع اشخاص یا شرکت‌ها قرار گیرد. چالش اصلی فنی نیست، بلکه اخلاقی است: اینکه چگونه این آزادی می‌تواند به شکلی شفاف و مسئولانه در خدمت سلامت و رفاه انسان باشد.»

او افزود که این چالش فقط مربوط به OpenAI نیست؛ شرکت‌های دیگری مانند Anthropic (سازنده Claude) و xAI (سازنده Grok) نیز با همین پرسش روبه‌رو هستند: هوش مصنوعی تا چه حد باید اجازه داشته باشد احساسات را بازتاب دهد یا نقش محافظ روانی را ایفا کند؟

به گفته‌ی او، این گفت‌وگو هنوز پاسخ روشنی ندارد و با وجود وعده‌های آلتمن درباره‌ی ایمنی کاربران، مسئله‌ی مرز میان «انسانی‌تر شدن» و «خطرناک‌تر شدن» هوش مصنوعی ChatGPT همچنان باز است.

منبع tomsguide
aiChatGPTOpenAIهوش مصنوعیهوش مصنوعی انسانی
0 نظر FacebookTwitterPinterestLinkedinTumblrVKRedditEmail
علی محمدپناه

مطلب قبلی
کیبورد گیمینگ ROG Falchion Ace HFX ZywOo Edition با سوییچ مغناطیسی معرفی شد
مطلب بعدی
کیبورد گیمینگ ROG Azoth 96 HE؛ شاهکار جدید ایسوس برای حرفه‌ای‌ها

شما هم نظر دهید Cancel Reply

برای دفعه بعد که نظر می‌دهم نام و ایمیل من را در این مرورگر ذخیره کنید.

* با استفاده از این فرم، با ذخیره و مدیریت داده‌های خود توسط این وب سایت موافقت می‌کنم.

مطالب مرتبط

  • سرمایه‌گذاری‌های استارتاپی ترکیه در سال ۲۰۲۵؛ میداس در...

    26 مهر 1404
  • ویندوز ۱۱ با Copilot: آغاز عصر هوش مصنوعی...

    26 مهر 1404
  • نسخه Veo 3.1 از راه رسید؛ ابزاری سریع‌تر...

    25 مهر 1404
  • تغییر سیاست‌های OpenAI: نسخه جدید ChatGPT با آزادی...

    25 مهر 1404
  • کلاهبرداری‌های هوش مصنوعی؛ تهدید پنهان در دنیای دیجیتال

    24 مهر 1404
  • ظهور اتاق‌های هوشمند در هتل‌ها: تعادلی میان فناوری...

    24 مهر 1404
  • هوش مصنوعی تولید ویدیوی Sora 2 نمونه‌ای از...

    23 مهر 1404
  • ۳ راز مهم برای استفاده هوشمندانه از Nano...

    22 مهر 1404
  • صدای مصنوعی یا واقعی؟ وقتی صدای هوش مصنوعی...

    22 مهر 1404
  • آشنایی با Google Vids؛ تبدیل عکس به ویدیو...

    21 مهر 1404
  • تأثیر خورشیدگرفتگی بر رفتار پرندگان و ریست شدن...

    21 مهر 1404
  • با Galaxy AI سامسونگ گوشی هوشمند شما به...

    20 مهر 1404
  • ساخت اپلیکیشن در چند دقیقه بدون دانش کدنویسی؛...

    20 مهر 1404

درباره فوت و فن

درباره فوت و فن

با ما تجربه‌ای جذاب از دنیای اطراف را داشته باشید.

در «فوت و فن»، ما به دنبال راه‌های ساده و کاربردی برای بهبود زندگی هستیم. واژهٔ «فن» در فارسی به معنای «شگرد» و «ترفند» است. ما تلاش می‌کنیم این ترفندها را در زندگی روزمره خود به کار ببریم و مطالبی شگفت‌انگیز و مفید را با شما به اشتراک بگذاریم. هدف ما این است که با به اشتراک گذاشتن تجربیات و آموخته‌های خود، به شما کمک کنیم تا روش‌های جدید و ایده‌های تازه‌ای را در زندگی خود بکار ببرید. با ما همراه باشید تا زندگی را با کمک «فوت و فن»، به یک تجربهٔ خلاقانه و لذت‌بخش تبدیل کنیم.

لینک‌های مفید

تماس با ما

 

تبلیغات در فوت و فن

 

درباره ما

Facebook Twitter Instagram Linkedin Tumblr Youtube Email

حامیان

2010-2025@ - All Right Reserved. Designed and Developed by FOOTOFAN

فوت و فن
  • دانش و فن
    • موبایل و تبلت
    • هوش مصنوعی
    • اپراتورها و وب
    • برنامه و نرم افزار
    • دنیای بازی
    • گوناگون
      • سخت افزار
      • تلویزیون
  • اقتصاد
    • اقتصاد بین الملل
    • بازارها
    • بانکداری و تجارت الکترونیک
    • خودرو
    • وبگردی
    • رپورتاژ
  • ورزش
    • فوتبال
    • موتوری
    • تنیس
  • سبک زندگی
    • سلامت
    • تغذیه
    • طبیعت
    • حیوانات
    • خلاقیت
    • آشپزی
  • گردشگری
    • گردشگری
  • فرهنگ و هنر
    • فیلم و سریال
    • کتاب و مجله
    • آثار باستانی
    • صنایع دستی
  • چند رسانه‌ای
    • عکس
    • ویدیو
    • خودمونی
    • همیاری
  • English