اپل یکی از بزرگترین شرکتهای تکنولوژی دنیاست که محصولاتش مانند آیفون و آیکلاود را به میلیونها کاربر ارائه میدهد. اما این شرکت همواره با چالشهای حفاظت از حریم خصوصی و جلوگیری از پخش محتوای جنسی سوءاستفاده از کودکان (CSAM) روبرو بوده است. در سال 2022، اپل از یک پروژه جدید برای شناسایی و گزارش CSAM در آیفونها و آیکلاود خبر داد که با استقبال و انتقادات فراوان همراه بود. در نهایت، اپل تصمیم گرفت به دلایل فنی و قانونی این پروژه را لغو کند. این تصمیم باعث شد برخی از کارکنان مسئول پروژه استعفا دهند و بسیاری از فعالان حقوق کودک ناراضی شوند. در این مطلب، به بررسی دلایل و پیامدهای این تصمیم میپردازیم.
جو مالیک یک پزشک بازنشسته بود که زندگی خود را به تحقق رویای درمان سرطان اختصاص داده بود. اما پس از شکستهای متعدد، او به یک فرد تنها و ناامید تبدیل شده بود. برای فرار از واقعیت، او به تماشای محتوای پورنوگرافی علاقهمند شده بود. با گذشت زمان، علاقهاش به محتوای جنسی عادی کم شده و به دنبال CSAM رفته بود. در سال 2019، پلیس با کمک یک نرمافزار مایکروسافت به نام PhotoDNA، که قادر به شناسایی CSAM است، مالیک را دستگیر کرد. با بازرسی دستگاههای الکترونیکی او، پلیس به 2,000 فایل CSAM و 800 فایل “عکسهای اروتیک کودکان” رسید. بخش عمدهای از این فایلها در حساب آیکلاود مالیک ذخیره شده بود.
اما چرا اپل قبلاً CSAM را در حساب آیکلاود مالیک پیدا نکرده بود؟ دلیل آن این است که اپل سالهاست که به عنوان یک شرکت حامی حفاظت از حریم خصوصی شناخته میشود و دادههای آپلود شده توسط کاربران را رمزگذار نموده است. به همین دلیل، اپل نمیتوانست CSAM را در آیکلاود شناسایی کند. اما در سال 2022، اپل از یک سیستم جدید برای اسکن CSAM در آیفونها و آیکلاود خبر داد. این سیستم با استفاده از یک اثر انگشتی دیجیتال، قادر به تشخیص CSAM بود و در صورت یافتن آن، گزارش آن را به اپل و مراجع قانونی میداد. اپل ادعا میکرد که این سیستم هم حفاظت از حریم خصوصی را رعایت میکند و هم جلوگیری از پخش CSAM را تسهیل میکند.
اما واکنشهای به این پروژه متفاوت بود. برخی از فعالان حقوق کودک، مانند کمپین ضد سوءاستفاده از کودکان (CEOP)، این پروژه را تحسین کردند و گفتند که میتواند به کاهش جرایم جنسی علیه کودکان کمک کند. برخی دیگر، مانند سازمان حقوق بشر (HRW)، نگران شدند که این پروژه ممکن است به نقض حقوق بشر منجر شود و دولتهای سرکوبگر را تشویق کند تا از آن برای سانسور و جاسوسی استفاده کنند. بعضی هم، مانند گروه حفاظت از حریم خصوصی (EPIC)، گفتند که این پروژه باعث میشود کاربران به سرویسهای دیگر رو ببرند و حفاظت از حریم خصوصی را ضعیف کند.
با توجه به فشارهای فنی و قانونی، اپل در نهایت تصمیم گرفت به صورت موقت این پروژه را لغو کند. این تصمیم باعث شد برخی از کارکنان مسئول پروژه، مانند سباستین استروبل، استعفا دهند. استروبل گفت که باور دارد که پروژه مفید بود و با لغو آن، فرصت برای جلوگیری از جرایم جنسی علیه کودکان از دست رفت. همچنین، بسیاری از فعالان حقوق کودک ناراضی شدند و گفتند که با لغو پروژه، اپل نشان داد که به حفاظت از کودکان توجه ندارد.
به نظر میرسد که در دستآوردن تعادل بین حفاظت از حریم خصوصی و جلوگیری از پخش CSAM، هنوز چالشهای زیاد و راهحلهای نامطلوب وجود دارد. شاید در آینده، با پیدایش فنآوریهای جد
با توجه به اینکه اپل از پرچمزدن محتوای غیرقانونی خودداری کرده است، شاید بسیاری از شما تعجب کنید: این شرکت برای سالها تصمیم گرفته است که دادههای آیکلاود را برای محتوای معروف CSAM اسکن نکند، مگر اینکه در پیوستهای ایمیل باشند. وقتی که یک سیستم رمزنگاری برای این کار طراحی کرد، در سال 2022 آن را لغو کرد. این تصمیم باعث شد که برخی از دفاع از حریم خصوصی اپل را تحسین کنند و برخی دیگر از فعالان حفاظت از کودکان به شدت ناراحت و نقد شوند. اپل گفت که این تصمیم نشان دهنده تعهدش به حفظ حریم خصوصی است – چیزی که برای شرکت پولدارترین جهان مهم است.
اما منتقدان معتقدند که اپل در مبارزه با محتوای سوءاستفاده از کودکان در خدمات خود عقب مانده و به پلیس در دستگیری جنایتکاران کمک نکرده است. یک بررسی فوربز نشان داد که از سال 2014 تا 2023، سیستمهای اپل برای ذخیره و فرستادن هزاران مورد محتوای CSAM استفاده شدهاند. در حالی که رقبای اپل مثل گوگل و متا خدمات خود را به طور منظم برای چنین محتوایی بررسی میکنند و هر ساله میلیونها گزارش را به مقامات مسئول تحویل میدهند، اپل فقط صدها گزارش را به آنها میفرستد، با وجود داشتن صدها میلیون کاربر آیکلاود.
درون اپل، پس از لغو سامانه ضد CSAM، تغییرات در تیم اعتماد و امانت رخ داد. دو نفر از مسئولان حفاظت از کودکان، ملیسا ماروس پولینسکی و مارگارت ریچاردسون، استعفا دادند. دو نفر دیگر که در پروژه ضد CSAM نقش داشتند، جین هوروث و مایکل آبوت، هم ترک شدند. (آنها و اپل به درخواست نظر پاسخی ندادند.)
بهومیک، مهندس اصلی نرمافزار شناسایی CSAM در اپل، کمپانی خود را راهاندازی کرد
آبیشک بهومیک، که در سال گذشته به عنوان مهندس اصلی نرمافزار شناسایی CSAM (محتوای سوءاستفاده از کودکان) در اپل شناخته شده بود، از این شرکت جدا شده و یک استارتاپ جدید تاسیس کرده است. بهومیک، که قبلاً در گوگل و فیسبوک کار میکرد، در مصاحبه با فوربز گفت که هدف او از تاسیس این کمپانی، ارائه یک راه حل جامع برای حفاظت از حریم خصوصی و امنیت در دنیای دیجیتال است.
بهومیک گفت که نام کمپانی خود را هنوز اعلام نکرده است، اما آن را با دو همبنیانگذار دیگر، چارلز لین و جاناتان لین، که هر دو سابقاً در اپل مشغول به کار بودند، راهاندازی کرده است. او گفت که تکنولوژی آنها بر پایه هوش مصنوعی و رمزنگاری است و قابل استفاده برای بسترهای مختلف مانند پلتفرمهای اجتماعی، پیامرسانها، سرویسهای ذخیرهسازی ابری و غیره است.
بهومیک گفت که تجربهاش در اپل به عنوان مسئول طراحی و پیادهسازی نرمافزار شناسایی CSAM، که در سال 2021 با واکنش منفی بسیاری از فعالان حقوق بشر و حفاظت از حریم خصوصی روبرو شد، به او الهام بخشید که چگونه میتوان به طور همزمان به مبارزه با محتوای غیرقانونی و حفظ حق حریم خصوصی کاربران پرداخت.
“کار من در تکنولوژی حفاظت از حریم خصوصی در اپل یکی از بزرگترین افتخارات حرفهای من بود. من فکر میکنم که آنچه که ما سعی داشتیم بسازیم، چالش بسزای جالب و معقول بود. من همچنین فکر میکنم که آنچه که ما ساختیم، به نحو مناسب و قابل قبول حق حریم خصوصی را حفظ میکرد. البته من متوجه هستم که بعضی از نظرات مخالف هستند و من آنها را هم قدردانی میکنم. اما من همیشه به دنبال راههای بهتر برای حل مسائل پیچیده بودم و این است که چرا من تصمیم گرفتم که این کمپانی را شروع کنم.” او گفت.
بهومیک افزود که کمپانیاش در حال حاضر در مرحله پیشراهاندازی است و در جذب سرمایهگذاران و استخدام نیروهای جدید است. او گفت که او و همبنیانگذارانش قصد دارند که تا پایان سال 2023 محصول خود را به بازار عرضه کنند.
“چالشی که ما قصد داریم حل کنیم، این است که چگونه میتوان به کاربران اطمینان داد که ابزاری برای نظارت بر یک نوع از پایش به گونهای تغییر داده نشده است که به منظور محتوای دیگری مانند فعالیتهای سیاسی یا ستایش مذهبی نظارت کند؟”
او پرسید. “ما فکر میکنیم که راه حل ما، یک روش جدید و نوآورانه است که به کاربران اجازه میدهد که خودشان تصمیم بگیرند که چه چیزی را میخواهند با دنیای بیرون به اشتراک بگذارند و چه چیزی را نخواهند. ما فکر میکنیم که این روش، هم برای حفاظت از حقوق بشر و هم برای جلوگیری از سوء استفاده، مفید خواهد بود.”
Erik Neuenschwander، مدیر حریم خصوصی و ایمنی کودکان اپل
آن خروجها قابل توجه بود. یکی از کارمندان سابق اپل به فوربس گفت: وقتی پولینسکی و ریچاردسون به کار خود ادامه دادند، “چالههای نسبتا بزرگی در سازمان ایجاد کردند.” یکی دیگر گفت که گروهی که بر حمایت از کودکان متمرکز شده بود، پراکنده شده بود و نقشها دوباره سازماندهی شدند و به تیمهای دیگر اختصاص یافتند. به گفته یکی از منابع آگاه، بسیاری از عملکرد به مهندسی حریم خصوصی منتقل شده است.
این بخش اکنون توسط Erik Neuenschwander، مدیر فنی قدیمی اپل، اداره میشود. او که اخیراً به عنوان مدیر حریم خصوصی و ایمنی کودک منصوب شد، نقش های قبلی او عمدتاً بر مهندسی نرم افزار متمرکز بود. چاک گیلینگهام، معاون سابق دادستان ناحیه سانتا کلارا، و روبن ون در دوسن، مهندس حریم خصوصی که قبلاً در Thorn، سازمان غیرانتفاعی ضد CSAM که توسط اشتون کوچر تأسیس شده بود، در کنار او کار میکنند. کارکنان اعتماد و ایمنی در نهایت به مایک تورنبری گزارش میدهند که بیشتر 23 سال خود را در اپل صرف نظارت بر فروش و Apple Pay کرده است.
اپل مدتهاست که حفظ حریم خصوصی را یکی از حقوق اساسی بشر میداند. این شرکت به طور معروف از ساختن یک درب پشتی برای FBI در iOS خودداری کرد که چندین ویژگی مهم امنیتی را دور زده و به مجریان قانون اجازه دسترسی به دادههای شخصی ذخیره شده در آیفونها را میداد. اپل استدلال میکرد که انجام این کار به دولت و دیگران این قدرت را میدهد تا به دستگاه هر کسی دسترسی پیدا کنند و اطلاعات حساس را جمعآوری کنند. از آن زمان، این شرکت به سمت رمزگذاری حتی گستردهتر سختافزار و نرمافزار خود حرکت کرده است که باعث ناراحتی FBI و دیگر سازمانهای مجری قانون شده است. اگرچه رمزگذاری iCloud به طور پیشفرض روشن است، اما اپل میتواند فایلهای هر کاربری را که از شرکت درخواست میکند تا دادههایشان را بازیابی کند، اسکن کند – مانند زمانی که در دستگاه جدیدی وارد سیستم میشوند، فایلها را از یک نسخه پشتیبان بازیابی میکنند، یا در صورت گم شدن درخواست کمک میکنند. دسترسی به حساب کاربری آنها!
حامیان ایمنی کودکان میگویند که تعهد تزلزل ناپذیر اپل به حفظ حریم خصوصی هزینه دارد: اپل اساسا نسبت به مطالب مضر و غیرقانونی ذخیره شده در سرویسهایش نابینا است. همانطور که یکی از کارمندان سابق به فوربس گفت، این موضع “برخی آسیب های بسیار جدی اجتماعی دیگر را پنهان میکند.” فنآوران و پیشکسوتان اجرای قانون میگویند که رقبا در سراسر جهان، از گوگل، متا و مایکروسافت گرفته تا دراپ باکس و سایر ارائهدهندگان ابر شخصی، در ریشهکن کردن شکارچیان جنسی که از پلتفرمهای آنها سوء استفاده میکنند، بسیار فعالتر هستند. هر سال، آن شرکتها میلیونها – گاهی دهها میلیون – بیشتر از اپل راهنماییهای سایبری در اختیار NCMEC قرار میدهند، که نکاتی را قبل از ارائه به بازرسان کودک آزاری بررسی و فهرستبندی میکند.
جیم کول، که دو دهه را در واحد تحقیقات امنیت داخلی DHS گذراند، به فوربس گفت: «آنها هرگز واقعاً علاقهای به مشارکت در حمایت از کودکان در پلتفرم خود نداشتهاند. “آنها راه حریم خصوصی را بسیار سخت طی کردهاند و قانون آنها را ملزم نمیکند که به دنبال CSAM باشند.”
اپل هیچ گونه اسکن پیشگیرانهای از فناوریها یا فضای ذخیرهسازی آنها، یا هیچ گونه انتقالی برای کمک به اجرای قانون برای جلوگیری از استثمار کودکان انجام نمی دهد.
جان راس، بازرس سابق کودک آزاری در استرالیا
اپل از اظهار نظر در مورد لیست دقیق سوالات خودداری کرد، در عوض نامهای از Neuenschwander، مدیر حریم خصوصی کاربران و ایمنی کودکان اپل را به فوربس ارائه کرد که به درخواستهای اخیر موسسه غیرانتفاعی Heat Initiative برای اپل برای بازگرداندن برنامههای اسکن سیستمهای خود برای CSAM پاسخ میداد. Neuenschwander گفت که اپل این پروژه را رها کرده است زیرا “عملاً امکان اجرای آن بدون به خطر انداختن امنیت و حریم خصوصی کاربران ما وجود ندارد” اما تاکید کرد که این شرکت ویژگیهای ایمنی دیگری را برای مبارزه با استثمار کودکان ارائه میدهد.
Neuenschwander در نامهای که اولین بار توسط Wired گزارش شد، هشدار داد که اسکن انبوه کاربران اپل “در را برای نظارت انبوه باز میکند.” «چگونه میتوان به کاربران اطمینان داد که ابزاری برای یک نوع نظارت برای نظارت بر محتوای دیگر مانند فعالیتهای سیاسی یا آزار و اذیت مذهبی مجدداً پیکربندی نشده است؟ ابزارهای نظارت جمعی پیامدهای منفی گستردهای برای آزادی بیان و در نتیجه دموکراسی به عنوان یک کل دارد. او اضافه کرد که نقصهای این نوع اسکن میتواند برای والدین دردسر ایجاد کند «زمانی که آنها کاری جز به اشتراک گذاشتن تصاویر کاملاً طبیعی و مناسب از نوزادان خود انجام ندادهاند».
معمای iCloud
از دسامبر 2022، اپل دو سطح رمزگذاری را برای iCloud ارائه کرده است. «محافظت استاندارد از دادهها» دادهها را روی سرور و در حین انتقال رمزگذاری میکند، اما اپل کلیدهای لازم برای رمزگذاری آن را حفظ میکند. «محافظت پیشرفته از داده ها» اساساً همین کار را انجام میدهد، اما اپل نمیتواند دادههای رمزگذاری شده را بازیابی کند. از آنجایی که کاربران باید صراحتاً از دومی استفاده کنند، اپل احتمالاً به دادههای iCloud رمزگذاری نشده قابل توجهی دسترسی دارد.
همچنین اطلاعات را نه تنها از برنامههای خود، بلکه از ایمیلهای شخص ثالث، پلتفرمهای اجتماعی و پیامرسانی که در آن کاربران پشتیبانگیری از دستگاه را روشن کردهاند، مدیریت میکند – چیزی که مجری قانون اغلب هنگام ثبت برنامههای حکم برای جستجوی حسابهای iCloud به آن توجه میکند. این شامل دادههای واتس اپ متا و سایر پیام رسان های متمرکز بر حریم خصوصی مانند Threema و همچنین برنامههایی مانند Kik است که اغلب توسط شکارچیان استفاده میشود.
جان راس، کهنه کار ۲۵ ساله تحقیقات کودک آزاری در استرالیا و رئیس سابق اینترنت مخفیانه اینترپل، گفت که اپل احتمالا میتواند iCloud را با PhotoDNA اسکن کند، یکی از گستردهترین ابزارها در مبارزه با مواد استثمار کودکان آنلاین. کارگروه تحقیقات. این نرم افزار که در سال 2009 توسط مایکروسافت و کالج دارتموث ایجاد شد، تصاویر را به مقادیر عددی منحصر به فردی به نام هش تبدیل میکند. آنها را میتوان با پایگاه داده هشهای شناخته شده CSAM مقایسه کرد. یک مسابقه تحقیقات بیشتر را آغاز می کند.
مانند همه شرکتهای فناوری، اپل طبق قانون موظف است به حکمهای جستجو پاسخ دهد و همچنین باید از طریق «CyberTipline» که توسط NCMEC اداره میشود، مطالب مربوط به سوءاستفاده جنسی از کودکان را که در پلتفرمهای خود پیدا میکند به مقامات فدرال گزارش کند.
سال گذشته، در حالی که فیسبوک و اینستاگرام متا مجموعاً ۲۶ میلیون گزارش، گوگل ۲ میلیون و TikTok نزدیک به ۳۰۰ هزار گزارش ارسال کردند، اپل ۲۳۴ گزارش را ارسال کرد. سال قبل از آن: ۱۶۰ گزارش.
اپل یک شرکت رسانههای اجتماعی نیست، بنابراین این مقایسه مستقیمی نیست. گفتنی است، واتس اپ، که رمزگذاری سرتاسری است، محتوای رمزگذاری نشده مانند پروفایل و عکسهای گروهی را برای CSAM اسکن میکند. بیش از 1 میلیون راهنمایی سایبری در سال 2022 به NCMEC ارائه کرد. مایکروسافت 110000 ارسال کرد. دراپ باکس، نزدیک به 46000; و Synchronoss، ارائه دهنده فضای ابری برای Verizon، بیش از 30000.
برنامههای اولیه اپل برای انجام اسکن عکسهای متصل به iCloud بدون تجاوز به حریم خصوصی کاربر مانند «پیشنهاد جادو به جای واقعیت» بود.
مردیث ویتاکر، رئیس سیگنال
اپل از اظهار نظر درباره کمبود گزارشهای NCMEC نسبت به همتایان خود خودداری کرد. در حالی که احتمالاً این اختلاف تا حدودی به دلیل موارد تکراری است – یک تصویر توهین آمیز منفرد که در چندین پست به اشتراک گذاشته شده است – منتقدان میگویند که این بیشتر بازتابی از انجام کاری اپل است که قانوناً برای نظارت بر مواد غیرقانونی انجام نمیدهد.
گاوین پورتنوی، سخنگوی NCMEC گفت که این اختلاف “ربطی به تکرار احتمالی ندارد” و نتیجه عدم تمایل اپل به “تلاش های معقول برای شناسایی و گزارش CSAM در پلتفرم خود” است. حتی سایت حاشیهای 4chan، که به سختی اوج اعتدال محسوب میشود، چندین مورد از کارهای اپل را هر سال گزارش میکند.
و اسناد دادگاه نشان می دهد که سرویس های اپل میزبان CSAM هستند. پرونده مولیک یکی از حداقل 100 تحقیق فدرال بین سالهای 2014 تا 2023 بود که در آن مظنون ادعا یا گمان میرفت که از محصولات اپل برای ذخیره تصاویر سوء استفاده جنسی از کودکان استفاده کرده است. (این شمارش، که شامل سوابق ایالتی، محلی یا بینالمللی نمیشود، تنها کسری از کل موارد استثمار کودکان مربوط به اپل را نشان میدهد.)
دو مثال: در سال 2022، مایکل گالوان تگزاسی 42 ساله به دلیل توزیع CSAM پس از یافتن نزدیک به 600 ویدیو و تصویر غیرقانونی در حساب iCloud او به بیش از 17 سال زندان محکوم شد. در ماه مه امسال، ریچارد اوکانر، معلم سابق مدرسه ابتدایی اورنج کانتی، پس از حمله به حساب کاربری iCloud وی که حداقل 81 ویدیو و 158 تصویر از کودک آزاری، از جمله «رفتار خشونت آمیز، سادیستی، یا مازوخیستی» را شناسایی کرد، به داشتن CSAM اعتراف کرد. ” در هر دو مورد، اپل داده هایی را در پاسخ به حکم های بازرسی تایید شده توسط دادگاه ارائه کرد. با این حال، در پرونده گالوان، نکته اصلی که تحقیقات را دوباره آغاز کرد، از کیک بود. تنها در دو مورد از مواردی که توسط فوربس بررسی شد، اپل به طور فعال CSAM را در پیامهای ایمیل ارسالی شناسایی و گزارش کرد.
اپل از اظهار نظر در مورد این موارد و تفاوت بین اسکن ایمیل های ارسالی برای تصاویر سوء استفاده جنسی از کودکان و اسکن iCloud خودداری کرد. اما به خوبی از مسائل CSAM در خدمات خود آگاه است. در پیامهای متنی کشف شده در بازی Epic Games علیه اپل، اریک فریدمن، رئیس مبارزه با کلاهبرداری اپل در سال 2020 به همکار خود گفت که فیسبوک و سایر شرکتهای فناوری بر اعتماد و ایمنی تمرکز کردهاند اما حریم خصوصی را “مک” کردهاند و افزود که حریم خصوصی اپل این است. رویکرد حقوق بنیادین بشر به این معناست که به “بزرگترین بستر برای توزیع پورن کودکان” تبدیل شده است.
به نظر شما، اپل باید چه کار کند؟ آیا باید رمزنگاری خود را تغییر دهد و یا به روشهای دیگر برای جلوگیری از پخش محتوای غیرقانونی اقدام کند؟ آیا حفظ حریم خصوصی بالاتر از حفاظت از کودکان است؟ در نظرات خود را با ما در میان بگذارید.