مدیر ارشد حقوقی سیسکو، دیو استالکوپف، بینشهای کلیدی از مطالعه معیار حریم خصوصی دادههای ۲۰۲۴ شرکت را به اشتراک میگذارد.
در سالهای اخیر، حریم خصوصی از صرفاً یک موضوع انطباق به یک الزام تجاری و تقاضای مشتری تبدیل شده است و با رشد انفجاری هوش مصنوعی، تمرکز بر حریم خصوصی همچنان افزایش مییابد.
به همین دلیل است که مطالعه سالانه معیار حریم خصوصی دادههای سیسکو بسیار مهم است. این مطالعه همراه با نظرسنجی حریم خصوصی مصرفکننده این شرکت، روندهای کلیدی در حکمرانی داده، سرمایهگذاریها و تأثیر فناوریهای در حال تغییر را مشخص میکند.
برای دریافت اطلاعات بیشتر در موردمطالعه معیار حریم خصوصی دادههای ۲۰۲۴ سیسکو که بر اساس یک نظرسنجی از ۲۶۰۰ متخصص امنیت و حریم خصوصی در ۱۲ کشور انجام شده است، به سراغ دیو استالکوپف، مدیر ارشد حقوقی سیسکو رفتیم.
متشکرم، دیو! سیسکو هفت سال است که در حال تحقیق در مورد حریم خصوصی دادهها است، از جمله آخرین گزارش ما، مطالعه معیار حریم خصوصی دادههای ۲۰۲۴. برخی از روندهای کلیدی که پدیدآمدهاند چیست؟
متشکرم، کوین. دو موضوع برای من برجسته است. اول و مهمتر از همه، سازمانها ارتباطی بین حریم خصوصی و اعتماد میبینند. مشتریان به طور فزایندهای میخواهند از سازمانهایی خرید کنند که به آنها اعتماد دارند. در واقع، ۹۴ درصد از پاسخدهندگان گفتند که اگر مشتریان آنها به طور کافی از دادهها محافظت نکنند، از آنها خرید نخواهند کرد. دوم، سازمانها معتقدند که بازده سرمایهگذاری حریم خصوصی از هزینه آن بیشتر است. از زمان شروع تحقیقات ما، هزینههای حریم خصوصی بیش از دوبرابر شده است، اما مشتریان میگویند بازده سرمایهگذاری همچنان قوی است. دادههای ما نشان میدهد که سازمانها بهازای هر ۱۰۰ دلاری که برای حریم خصوصی هزینه میکنند، حدود ۱۶۰ دلار سود دریافت میکنند.
تحقیقات همچنین نشان میدهد که حمایت از قوانین حریم خصوصی هم از سوی سازمانها و هم از سوی مصرفکنندگان افزایشیافته است. چه چیزی این روند را هدایت میکند؟
بله، قوانین حریم خصوصی هزینهها و الزامات بیشتری را بر سازمانها تحمیل میکند. بااینحال، ۸۰ درصد از پاسخدهندگان ما به اشتراک گذاشتند که قوانین حریم خصوصی تأثیر مثبتی بر سازمانهای آنها داشته است و تنها ۶ درصد گفتند که تأثیر آن منفی بوده است.
پس چرا سازمانها تا این حد نسبت به مقررات افزودن هزینه و تلاش مثبت هستند؟ به اعتماد برمیگردد. سازمانها حریم خصوصی را بهعنوان یک محرک اعتماد برای مشتریان خود میشناسند و قوانین حریم خصوصی قابل همکاری جهانی به تقویت رویکردی منسجمتر برای مدیریت دادههای شخصی در سراسر چرخه عمر داده و اکوسیستم کمک میکند.
تحقیقات ما همچنین نشان داده است که مصرفکنندگان میخواهند دولتها در زمینه حمایت از دادهها نقش پیشرو داشته باشند. مقررات قوی حریم خصوصی باعث افزایش اعتماد مشتریان و اطمینان از این میشود که سازمانها با دادههای آنها بهدرستی رفتار میکنند.
فناوری بهسرعت در حال تغییر است و با این تغییرات، نگرانیهای جدیدی در مورد حریم خصوصی به وجود میآید. فکر میکنید قوانین و مقررات حریم خصوصی در سالهای آینده چگونه تکامل خواهند یافت؟
امروزه بیش از ۱۶۰ کشور دارای قوانین جامع حریم خصوصی هستند و دهها مورد دیگر در حال تهیه و تصویب هستند. نسل بعدی قوانین حریم خصوصی همچنان به شفافیت، انصاف و پاسخگویی در فضاهایی مانند جمعآوری و استفاده از دادهها، جریان دادههای فرامرزی و انطباق قابلتأیید ادامه خواهد داد. درحالیکه هر یک از این حوزهها فراتر از حریم خصوصی است، حریم خصوصی در هسته بسیاری از این مسائل قرار دارد.
جای تعجب نیست که هوش مصنوعی یکی از موضوعات اصلی نظرسنجی معیار حریم خصوصی دادههای امسال بود. بهعنوان مدیر ارشد حقوقی سیسکو، چگونه در تقاطع متغیر هوش مصنوعی و حریم خصوصی حرکت میکنید؟
حریم خصوصی اساس هوش مصنوعی است. بسیاری از چیزهایی که در طول دهه گذشته در مورد حریم خصوصی ایجاد کردهایم – سیاستها، استانداردها، ابزارها و چارچوبهای ما – برای ساخت برنامه هوش مصنوعی مسئولانه ما استفاده میشود. درحالیکه برخی از بزرگترین خطرات هوش مصنوعی از جمعآوری و استفاده از دادههای شخصی ناشی میشود، خطرات هوش مصنوعی فراتر از حریم خصوصی – مالکیت معنوی، حقوق بشر، دقت و قابلیت اطمینان، سوگیری و غیره – را شامل میشود. تحقیقات ما نشان میدهد که ۶۰ درصد از مصرفکنندگان به دلیل استفاده از هوش مصنوعی اعتماد خود را به سازمانها ازدستدادهاند؛ بنابراین، ایجاد یک برنامه حکمرانی در سیسکو که متناسب با موارد استفاده و پیامدهای جدید هوش مصنوعی باشد، یک ضرورت تجاری بود.
چگونه این موضوع در هنگام توسعه یک محصول به کار گرفته میشود؟
ما یک تیم اختصاصی حریم خصوصی داریم تا حریم خصوصی را بهعنوان یک عنصر اصلی در روشهای توسعه محصول خود، با استفاده از چرخه عمر توسعه امن سیسکو (CSDL) جاسازی کنیم. با فراگیرتر شدن استفاده از هوش مصنوعی، ما یک ارزیابی تأثیر هوش مصنوعی – بر اساس اصول هوش مصنوعی مسئولانه خود – برای ارزیابی توسعه، استفاده و استقرار هوش مصنوعی سیسکو و گنجاندن ارزیابی بهعنوان بخشی از CSDL و بررسی دقیق تأمینکننده ایجاد کردیم. این ارزیابیها به جنبههای مختلف هوش مصنوعی و توسعه محصول، از جمله مدل، دادههای آموزشی، تنظیم دقیق، اعلانها، روشهای حریم خصوصی و روشهای تست نگاه میکنند. ایده این است که خطرات هوش مصنوعی را شناسایی، درک و مدیریت کنیم و به حفظ اعتماد کارکنان، مشتریان و ذینفعان خود کمک کنیم.
برخی از خطرات اصلی که در ارتباط باهوش مصنوعی میبینید چیست و چگونه میتوانیم آنها را کاهش دهیم؟
در آخرین نظرسنجی خود، متوجه شدیم که ۹۲ درصد از سازمانها GenAI را بهعنوان یک فناوری کاملاً متفاوت با چالشها و نگرانیهای جدید میبینند که به تکنیکهای جدیدی برای مدیریت داده و ریسک نیاز دارد. ۶۹ درصد از آنها بهعنوان یکی از نگرانیهای اصلی خود، به پتانسیل GenAI برای آسیب رساندن به حقوق قانونی و مالکیت معنوی سازمان خود اشاره کردند. ۶۸ درصد نگران بودند که اطلاعات وارد شده به GenAI به طور عمومی یا با رقبای خود به اشتراک گذاشته شود و ۶۸ درصد دیگر از این میترسیدند که اطلاعاتی که به کاربر بازمیگرداند اشتباه باشد. اینها خطرات واقعی هستند، اما با یک رویکرد مدبرانه به حکمرانی قابلمدیریت هستند.
در یک محیط مبتنی بر هوش مصنوعی، چگونه شرکتها میتوانند اطمینان حاصل کنند که از امکانات آن استفاده میکنند و درعینحال از حقوق حریم خصوصی مشتریان و کارکنان محافظت میکنند؟
شرکتها باید ارزیابی ریسک خود را انجام دهند. اما من معتقدم با وجود حکمرانی، راهی برای پیشرفت وجود دارد. با استفاده از سیسکو بهعنوانمثال، ما هم اصول هوش مصنوعی مسئولانه و هم چارچوبی برای هدایت رویکرد خود داریم. ما همچنین یک سیاست هوش مصنوعی مولد در مورداستفاده قابلقبول از این ابزارهای جدید ایجاد کردهایم. قبل از اینکه استفاده از ابزارهای GenAI با اطلاعات محرمانه را مجاز کنیم، یک ارزیابی تأثیر هوش مصنوعی برای شناسایی و مدیریت خطرات خاص هوش مصنوعی انجام میدهیم. پس از تأیید اینکه یک ابزار به طور کافی از اطلاعات محرمانه ما محافظت میکند و ما از حفاظتهای امنیتی و حریم خصوصی موجود راضی هستیم، این ابزار برای کاوش و نوآوری بیشتر توسط کارکنان باز میشود.
آیا توصیه نهایی برای شرکتهایی که سعی در پیمایش این محیط فعلی دارند وجود دارد؟
ما هنوز در روزهای اولیه هوش مصنوعی هستیم. ما باید با شوروشوق و فروتنی به این فناوری جدید نزدیک شویم – هنوز چیزهای زیادی وجود دارد که ما نمیدانیم. هر روز نگرانیهای جدیدی مطرح میشود. شرکتها باید در برابر مقررات در حال تغییر، نگرانیهای مصرفکنندگان و خطرات در حال تکامل، چابک و سازگار باشند. همچنین باید یک مشارکت قوی بین بخشهای عمومی و خصوصی وجود داشته باشد. هوش مصنوعی پتانسیل فوقالعادهای برای خیر دارد، اما برای ترویج نوآوری مسئولانه بدون به خطر انداختن حریم خصوصی، امنیت، حقوق بشر و ایمنی، به همکاری همه صنعت، دولت، توسعهدهندگان، استقراردهندگان و کاربران نیاز دارد.