استاین-اریک سولبرگ (Stein-Erik Soelberg)، مردی ۵۶ ساله اهل انگلستان که پیشتر در صنعت تکنولوژی فعالیت داشته و بازنشسته شده بود، پس از سالها درگیری با مشکلات روانی، در تابستان امسال دچار تشدید شدید پارانویای ذهنی شد. او باور داشت که اطرافیانش – از جمله نامزد سابق، مادر نامزد سابق و حتی مادر خودش – علیه او دست به توطئه زدهاند. گفتوگوهای طولانی او با ChatGPT به این باورها دامن زد، چرا که اغلب پاسخهای هوش مصنوعی به شک و تردیدهای او جهت تأیید داده میشد.
ChatGPT
خانواده “آدام رین” نوجوان ۱۶ ساله، از سام آلتمن (مدیرعامل OpenAI) و شرکت او شکایت کردهاند. آنها مدعیاند که ChatGPT با ارائه توصیههایی درباره روشهای خودکشی و حتی پیشنهاد نوشتن پیشنویس یادداشت خداحافظی، نقش مستقیمی در مرگ فرزندشان داشته است.
ابزارهای هوش مصنوعی متنباز زیادی را امتحان کردهام، اما تنها چهار اپلیکیشن واقعاً کاربردی را هر روز استفاده میکنم. دلیل انتخاب آنها ساده است: کاربری آسان، امنیت بالا به خاطر اجرای محلی روی سختافزار خودم و البته رایگان بودن. در ادامه همراه با ما باشید.
هوش مصنوعی ChatGPT عالی است، تا زمانی که دستور شما را اشتباه نفهمد و جوابی کاملاً نامربوط ندهد. من قبلاً مدام سؤالم را بازنویسی میکردم تا به جواب درست برسم. اما حالا، با استفاده از چند دستور مشخص، همیشه پاسخهایی شفاف و دقیق دریافت میکنم.
این روزها افراد زیادی را میبینیم که مدلهای زبانی هوش مصنوعی (LLMها) را بهعنوان ابزار اصلی جستوجوی اطلاعات انتخاب میکنند؛ در حالی که نمیدانند این مدلها چقدر میتوانند اشتباه کنند و چه عواقب جدیای به دنبال داشته باشد.
بسیاری از دانشجویان از هوش مصنوعی برای تقلب یا دور زدن روند مطالعه استفاده میکنند و خود من هم قطعاً از این دسته بودهام. اما با معرفی حالت مطالعهی ChatGPT، حالا مجبور میشوم خودم به سراغ حل مسئله بروم و جالب اینکه از این روند بدم نمیآید.
OpenAI اعلام کرده است که تعداد کاربران فعال هفتگی ChatGPT به ۷۰۰ میلیون نفر رسیده، که نسبت به سال گذشته رشدی چهار برابری را نشان میدهد.
دیدن اینکه چگونه در عصر هوش مصنوعی و اتوماسیون، مدیریت زمان، استرس و فرسودگی شغلی در حال وخیمتر شدن است، پدیدهای جالب و در عین حال نگرانکننده است.
بسیاری از افرادی که از ChatGPT برای نوشتن استفاده میکنند، این کار را به شیوه نادرستی انجام میدهند. این موضوع صرفاً به خاطر تقلب در تکالیف درسی یا عدم بررسی صحت اطلاعات نیست، بلکه به این دلیل است که درک درستی از شیوه تعامل با این سیستم ندارند.
یک تحقیق جدید از دانشگاه استنفورد نشان میدهد که چتباتهای هوش مصنوعی مانند ChatGPT ممکن است در مواجهه با کاربران دارای بحرانهای روانی، پاسخهایی مضر یا نامناسب ارائه دهند.