در گزارشی تازه و نگرانکننده مشخص شده است که ابزارهای هوش مصنوعی مولد مانند ChatGPT، Microsoft Copilot و Claude به بزرگترین منبع نشت داده در محیطهای کاری تبدیل شدهاند. این مطالعه نشان میدهد که استفاده گسترده و بدون نظارت از این فناوریها باعث افشای اطلاعات محرمانه شرکتها در مقیاسی بیسابقه شده است.
بر اساس گزارش جدید شرکت امنیتی Cyera، گفتگو با هوش مصنوعی اکنون عامل شماره یک نشت دادههای سازمانی محسوب میشود و برای نخستینبار حتی از سرویسهای ذخیرهسازی ابری و ایمیل نیز پیشی گرفته است. بخش نگرانکنندهتر ماجرا این است که بسیاری از این نشتها بدون آگاهی شرکتها رخ میدهند و در سطحی زیرزمینی و غیر قابل ردیابی جریان دارند.
تهدید از درون سازمان، نه از سوی هکرها
بر اساس یافتهها، تقریباً ۵۰ درصد از کارکنان شرکتها در محل کار از ابزارهای هوش مصنوعی مولد استفاده میکنند. در بسیاری از موارد، آنها اطلاعات حساس مانند دادههای مالی، اطلاعات شخصی کارکنان یا حتی اسناد استراتژیک را مستقیماً در چتهای هوش مصنوعی قرار میدهند. این اطلاعات هرگز نباید در چنین محیطهایی به اشتراک گذاشته شود، اما بیشتر این اتفاقها از طریق حسابهای شخصی و خارج از کنترل شرکتها مانند ChatGPT یا Gemini صورت میگیرد.
گزارش نشان میدهد که ۷۷ درصد از این تعاملات شامل دادههای واقعی سازمانی هستند، اما چون از طریق حسابهای غیررسمی انجام میشوند، توسط سیستمهای امنیتی شرکتها شناسایی نمیگردند. به عبارتی، کارمندان بدون آنکه متوجه باشند، اطلاعات حیاتی شرکت را در اختیار سامانههایی میگذارند که قابل ردیابی و کنترل نیستند.
از آنجا که بسیاری از کاربران دادهها را از طریق «کپی و پیست» در پنجره گفتوگو وارد میکنند و نه از طریق بارگذاری فایل، سیستمهای سنتی جلوگیری از نشت داده (DLP) قادر به شناسایی آنها نیستند.
چرا ابزارهای امنیتی فعلی کارایی ندارند؟
بیشتر سیستمهای امنیت سایبری برای شناسایی فایلهای ضمیمه، دانلودهای مشکوک یا ایمیلهای خروجی طراحی شدهاند. اما گفتگوهای هوش مصنوعی از دید این سیستمها ترافیکی کاملاً عادی محسوب میشوند، حتی اگر حاوی اطلاعات محرمانه باشند.
در گزارشی از شرکت LayerX در سال ۲۰۲۵ آمده است که ۶۷ درصد از تعاملات کاربران با هوش مصنوعی از طریق حسابهای شخصی انجام میشود. این یعنی تیمهای فناوری اطلاعات (IT) نه دسترسی برای نظارت دارند و نه میتوانند این فعالیتها را محدود کنند. در نتیجه، حسابهای شخصی به یک «نقطه کور امنیتی» تبدیل شدهاند که میتواند آسیبپذیری گستردهای ایجاد کند.
چگونه میتوان از شرکت و دادهها محافظت کرد؟
پژوهشگران تأکید میکنند که هدف این گزارش ممنوع کردن استفاده از هوش مصنوعی نیست، بلکه زنگ هشداری است برای افزایش کنترل، شفافیت و نظارت مؤثر. آنها چند اقدام کلیدی را برای پیشگیری از این نوع نشت داده پیشنهاد کردهاند:
- مسدود کردن دسترسی به هوش مصنوعی از طریق حسابهای شخصی
- الزام ورود یکپارچه (SSO) برای تمام ابزارهای AI مورد استفاده در دستگاههای سازمانی
- نظارت بر فعالیتهای کپی/پیست و کلیدواژههای حساس
- برخورد با گفتگوهای چت همانند انتقال فایلهای محرمانه
از سوی دیگر، برای کارمندان توصیه میشود هرگز اطلاعاتی را در چتهای هوش مصنوعی وارد نکنند که حاضر نباشند بهصورت عمومی در اینترنت منتشر شود.
خط پایان: مرز باریک میان بهرهوری و خطر
هوش مصنوعی هنوز پدیدهای تازه در محیطهای کاری است و کارمندان در حال یادگیری استفاده از آن هستند. مشکل اینجاست که بسیاری از کارکنان قصد بدی ندارند؛ بلکه تصور میکنند از ابزارها برای افزایش بهرهوری استفاده میکنند. برای مثال، درخواست سادهای مانند «این گزارش را برایم خلاصه کن» ممکن است بیضرر به نظر برسد، اما اگر کارمند محتوای محرمانه شرکت را در چت وارد کند، همان اقدام ساده میتواند به نشتی بزرگ از دادههای داخلی منجر شود.
در حالی که شرکتها در رقابت برای افزایش سرعت و کارایی از هوش مصنوعی استفاده میکنند، تنها یک کپی پیست اشتباه میتواند تمام اسرار سازمان را در معرض دید قرار دهد. آگاهی از این تهدید، نخستین گام برای تقویت امنیت و محافظت از دادههای حساس در عصر هوش مصنوعی است.
نظری دارید؟
دیدگاه یا واکنش خود را با ما به اشتراک بگذارید؛ مشتاق شنیدن نظرات ارزشمند شما هستیم.