یکشنبه۲۰مهر۱۴۰۴
  • EN
  • تبلیغات
  • تماس با ما
  • درباره ما
فوت و فن
  • دانش و فن
    • موبایل و تبلت
    • هوش مصنوعی
    • اپراتورها و وب
    • برنامه و نرم افزار
    • دنیای بازی
    • گوناگون
      • تلویزیون
      • سخت افزار
  • اقتصاد
    • اقتصاد بین الملل
    • بازارها
    • بانکداری و تجارت الکترونیک
    • خودرو
    • وبگردی
    • رپورتاژ
  • ورزش
    • فوتبال
    • موتوری
  • سبک زندگی
    • سلامت
    • تغذیه
    • طبیعت
    • حیوانات
    • آشپزی
    • خلاقیت
  • گردشگری
    • گردشگری
  • فرهنگ و هنر
    • فیلم و سریال
    • کتاب و مجله
    • آثار باستانی
    • صنایع دستی
  • چند رسانه‌ای
    • عکس
    • ویدیو
    • خودمونی
    • همیاری
هوش مصنوعی

زنگ خطر برای شرکت‌ها: کارمندان ناخواسته اسرار شرکت‌ها را از طریق ChatGPT فاش می‌کنند

علی محمدپناه 20 مهر 1404
A+A-
Reset
1

در گزارشی تازه و نگران‌کننده مشخص شده است که ابزارهای هوش مصنوعی مولد مانند ChatGPT، Microsoft Copilot و Claude به بزرگ‌ترین منبع نشت داده در محیط‌های کاری تبدیل شده‌اند. این مطالعه نشان می‌دهد که استفاده گسترده و بدون نظارت از این فناوری‌ها باعث افشای اطلاعات محرمانه شرکت‌ها در مقیاسی بی‌سابقه شده است.

بر اساس گزارش جدید شرکت امنیتی Cyera، گفتگو با هوش مصنوعی اکنون عامل شماره یک نشت داده‌های سازمانی محسوب می‌شود و برای نخستین‌بار حتی از سرویس‌های ذخیره‌سازی ابری و ایمیل نیز پیشی گرفته است. بخش نگران‌کننده‌تر ماجرا این است که بسیاری از این نشت‌ها بدون آگاهی شرکت‌ها رخ می‌دهند و در سطحی زیرزمینی و غیر قابل ردیابی جریان دارند.

تهدید از درون سازمان، نه از سوی هکرها

بر اساس یافته‌ها، تقریباً ۵۰ درصد از کارکنان شرکت‌ها در محل کار از ابزارهای هوش مصنوعی مولد استفاده می‌کنند. در بسیاری از موارد، آن‌ها اطلاعات حساس مانند داده‌های مالی، اطلاعات شخصی کارکنان یا حتی اسناد استراتژیک را مستقیماً در چت‌های هوش مصنوعی قرار می‌دهند. این اطلاعات هرگز نباید در چنین محیط‌هایی به اشتراک گذاشته شود، اما بیشتر این اتفاق‌ها از طریق حساب‌های شخصی و خارج از کنترل شرکت‌ها مانند ChatGPT یا Gemini صورت می‌گیرد.

گزارش نشان می‌دهد که ۷۷ درصد از این تعاملات شامل داده‌های واقعی سازمانی هستند، اما چون از طریق حساب‌های غیررسمی انجام می‌شوند، توسط سیستم‌های امنیتی شرکت‌ها شناسایی نمی‌گردند. به عبارتی، کارمندان بدون آنکه متوجه باشند، اطلاعات حیاتی شرکت را در اختیار سامانه‌هایی می‌گذارند که قابل ردیابی و کنترل نیستند.

از آنجا که بسیاری از کاربران داده‌ها را از طریق «کپی و پیست» در پنجره گفت‌وگو وارد می‌کنند و نه از طریق بارگذاری فایل، سیستم‌های سنتی جلوگیری از نشت داده (DLP) قادر به شناسایی آن‌ها نیستند.

چرا ابزارهای امنیتی فعلی کارایی ندارند؟

بیشتر سیستم‌های امنیت سایبری برای شناسایی فایل‌های ضمیمه، دانلودهای مشکوک یا ایمیل‌های خروجی طراحی شده‌اند. اما گفتگوهای هوش مصنوعی از دید این سیستم‌ها ترافیکی کاملاً عادی محسوب می‌شوند، حتی اگر حاوی اطلاعات محرمانه باشند.

در گزارشی از شرکت LayerX در سال ۲۰۲۵ آمده است که ۶۷ درصد از تعاملات کاربران با هوش مصنوعی از طریق حساب‌های شخصی انجام می‌شود. این یعنی تیم‌های فناوری اطلاعات (IT) نه دسترسی برای نظارت دارند و نه می‌توانند این فعالیت‌ها را محدود کنند. در نتیجه، حساب‌های شخصی به یک «نقطه کور امنیتی» تبدیل شده‌اند که می‌تواند آسیب‌پذیری گسترده‌ای ایجاد کند.

چگونه می‌توان از شرکت و داده‌ها محافظت کرد؟

پژوهشگران تأکید می‌کنند که هدف این گزارش ممنوع کردن استفاده از هوش مصنوعی نیست، بلکه زنگ هشداری است برای افزایش کنترل، شفافیت و نظارت مؤثر. آن‌ها چند اقدام کلیدی را برای پیشگیری از این نوع نشت داده پیشنهاد کرده‌اند:

  • مسدود کردن دسترسی به هوش مصنوعی از طریق حساب‌های شخصی
  • الزام ورود یکپارچه (SSO) برای تمام ابزارهای AI مورد استفاده در دستگاه‌های سازمانی
  • نظارت بر فعالیت‌های کپی/پیست و کلیدواژه‌های حساس
  • برخورد با گفتگوهای چت همانند انتقال فایل‌های محرمانه

از سوی دیگر، برای کارمندان توصیه می‌شود هرگز اطلاعاتی را در چت‌های هوش مصنوعی وارد نکنند که حاضر نباشند به‌صورت عمومی در اینترنت منتشر شود.

خط پایان: مرز باریک میان بهره‌وری و خطر

هوش مصنوعی هنوز پدیده‌ای تازه در محیط‌های کاری است و کارمندان در حال یادگیری استفاده از آن هستند. مشکل اینجاست که بسیاری از کارکنان قصد بدی ندارند؛ بلکه تصور می‌کنند از ابزارها برای افزایش بهره‌وری استفاده می‌کنند. برای مثال، درخواست ساده‌ای مانند «این گزارش را برایم خلاصه کن» ممکن است بی‌ضرر به نظر برسد، اما اگر کارمند محتوای محرمانه شرکت را در چت وارد کند، همان اقدام ساده می‌تواند به نشتی بزرگ از داده‌های داخلی منجر شود.

در حالی که شرکت‌ها در رقابت برای افزایش سرعت و کارایی از هوش مصنوعی استفاده می‌کنند، تنها یک کپی پیست اشتباه می‌تواند تمام اسرار سازمان را در معرض دید قرار دهد. آگاهی از این تهدید، نخستین گام برای تقویت امنیت و محافظت از داده‌های حساس در عصر هوش مصنوعی است.

منبع tomsguide

نظری دارید؟

دیدگاه یا واکنش خود را با ما به اشتراک بگذارید؛ مشتاق شنیدن نظرات ارزشمند شما هستیم.

  • like 0
  • love 0
  • haha 0
  • wow 0
  • sad 0
  • angry 0
aiآموزش هوش مصنوعیاستفاده از هوش مصنوعیتهدید هوش مصنوعیهوش مصنوعی
0 نظر FacebookTwitterPinterestLinkedinTumblrVKEmail
علی محمدپناه

مطلب قبلی
راز کاربران حرفه‌ای ChatGPT فاش شد: ۱۰۰ پرامپت آماده در این سایت رایگان

شما هم نظر دهید Cancel Reply

برای دفعه بعد که نظر می‌دهم نام و ایمیل من را در این مرورگر ذخیره کنید.

* با استفاده از این فرم، با ذخیره و مدیریت داده‌های خود توسط این وب سایت موافقت می‌کنم.

مطالب مرتبط

  • راز کاربران حرفه‌ای ChatGPT فاش شد: ۱۰۰ پرامپت...

    19 مهر 1404
  • اپلیکیشن‌های محبوب به چت جی‌پی‌تی آمدند؛ آموزش استفاده...

    19 مهر 1404
  • معرفی Vibes اپلیکیشن تازه‌ی متا؛ پلتفرمی فقط برای...

    18 مهر 1404
  • آیا حباب هوش مصنوعی در حال ترکیدن است؟...

    18 مهر 1404
  • چرا نباید از ChatGPT برای همه چیز استفاده...

    18 مهر 1404
  • سام آلتمن: منتقدان GPT-5 اشتباه می‌کنند | پاسخ...

    17 مهر 1404
  • ۷ ترند بزرگ هوش مصنوعی که دنیای کار...

    17 مهر 1404
  • آموزش ابزار ویدیویی جدید Grok برای تبدیل عکس‌ها...

    16 مهر 1404
  • اپ استور ChatGPT: چالش جدید OpenAI برای Apple...

    16 مهر 1404
  • آموزش هوش مصنوعی: پرامپت جادویی ChatGPT که پاسخ‌های...

    14 مهر 1404
  • ۱۰ ابزار برتر تولید تصویر با هوش مصنوعی...

    13 مهر 1404
  • مرورگر هوش مصنوعی Comet رایگان شد؛  چرا باید...

    13 مهر 1404
  • آیا هوش مصنوعی تهدیدی برای هنرمندان است؟ راز...

    13 مهر 1404

درباره فوت و فن

درباره فوت و فن

با ما تجربه‌ای جذاب از دنیای اطراف را داشته باشید.

در «فوت و فن»، ما به دنبال راه‌های ساده و کاربردی برای بهبود زندگی هستیم. واژهٔ «فن» در فارسی به معنای «شگرد» و «ترفند» است. ما تلاش می‌کنیم این ترفندها را در زندگی روزمره خود به کار ببریم و مطالبی شگفت‌انگیز و مفید را با شما به اشتراک بگذاریم. هدف ما این است که با به اشتراک گذاشتن تجربیات و آموخته‌های خود، به شما کمک کنیم تا روش‌های جدید و ایده‌های تازه‌ای را در زندگی خود بکار ببرید. با ما همراه باشید تا زندگی را با کمک «فوت و فن»، به یک تجربهٔ خلاقانه و لذت‌بخش تبدیل کنیم.

لینک‌های مفید

تماس با ما

 

تبلیغات در فوت و فن

 

درباره ما

Facebook Twitter Instagram Linkedin Tumblr Youtube Email

حامیان

2010-2025@ - All Right Reserved. Designed and Developed by FOOTOFAN

فوت و فن
  • دانش و فن
    • موبایل و تبلت
    • هوش مصنوعی
    • اپراتورها و وب
    • برنامه و نرم افزار
    • دنیای بازی
    • گوناگون
      • سخت افزار
      • تلویزیون
  • اقتصاد
    • اقتصاد بین الملل
    • بازارها
    • بانکداری و تجارت الکترونیک
    • خودرو
    • وبگردی
    • رپورتاژ
  • ورزش
    • فوتبال
    • موتوری
    • تنیس
  • سبک زندگی
    • سلامت
    • تغذیه
    • طبیعت
    • حیوانات
    • خلاقیت
    • آشپزی
  • گردشگری
    • گردشگری
  • فرهنگ و هنر
    • فیلم و سریال
    • کتاب و مجله
    • آثار باستانی
    • صنایع دستی
  • چند رسانه‌ای
    • عکس
    • ویدیو
    • خودمونی
    • همیاری
  • English