هر روز خبرهایی از پیشرفت در رشته هوش مصنوعی منتشر میشود و همزمان، این خبرها به نگرانی از پیامدهای احتمالاً خطرناک این فناوری دامن میزند.
اخیراً انتشار دو ویدئوی جعلی که برای تخریب دو چهره معروف با استفاده از هوش مصنوعی ساخته شده این بحث را وارد مرحله جدیدی کرده است، بهویژه که تشخیص تفاوت جعل و واقعیت در این ویدئوها تقریباً ناممکن است.
اواخر ماه گذشته میلادی یک ویدئوی جعلی و دستکاریشده از «سخنرانی» نانسی پلوسی، رئیس دموکرات مجلس نمایندگان آمریکا و از مخالفان سیاستهای رئیس جمهوری آمریکا، منتشر شد که در آن وی به عنوان شخصی «مست و دچار لکنتزبان» معرفی شده که از بیان درست کلمات عاجز است.
این ویدئو به سرعت در فیسبوک، یوتیوب و توئیتر پخش شد، دستکم سه میلیون بار تماشا شد، دونالد ترامپ، رئیس جمهوری آمریکا، در مورد آن توئیت کرد و شبکه تلویزیونی فاکسنیوز هم در برنامههای خود به آن پرداخت.
پس از آنکه مشخص شد که ویدئو کاملاً جعلی است و با فناوری هوش مصنوعی ساخته شده، از فیسبوک خواسته شد که آن را حذف کند. فیسبوک با ذکر بندهایی از مقررات خود از حذف این ویدئو از صفحات این شبکه اجتماعی خودداری کرد، اما کمی بعد، یک ویدئوی جعلی دیگر دامنگیر مارک زاکربرگ، بنیانگذار خود فیسبوک شد.
در این ویدئو که هفته پیش منتشر شد، از بخشی از یک ویدئوی دو سال پیش مارک زاکربرگ استفاده شده و با یک الگوریتم هوش مصنوعی در آن تغییرات کاملی داده شده و در آن سخنانی جعلی از زبان زاکربرگ بیان میشود.
در ویدئوی جعلی، بنیانگذار فیسبوک به «تسلط یکنفره خود بر جهان از طریق در دست داشتن اطلاعات میلیاردها نفر» افتخار میکند و میگوید که «جان و آینده شما در دستان من است.» این ویدئو در اینستاگرام منتشر شد، شبکهای که مالک آن شرکت فیسبوک است.
بنا بر گزارشها، این دستکاریها با استفاده از یکی از شاخههای پرکاربرد هوش مصنوعی، به نام یادگیری ماشینی انجام میشود. بهخصوص یکی از تکنیکهای یادگیری ماشینی به نام «یادگیری عمقی» برای این کار استفاده میشود که اطلاعات خام تصاویر و ویدئوها را دریافت کرده و لایه لایه به آن «عمق میدهد» تا اینکه محتوایی متفاوت اما بهظاهر شبیه واقعیت پیدا کند. برای همین به این نوع دستکاری «جعل عمقی» (Deepfake) میگویند.
نگرانی در مورد ویدئوهایی جعلی عمقی هماینک در محافل سیاسی آمریکا بالا گرفته و کمیته اطلاعاتی مجلس نمایندگان آمریکا در روزهای اخیر جلسه ویژهای در این مورد و چالشهای مرتبط با آن تشکیل داد.
در این جلسه، آدام شیف، رئیس کمیته اطلاعاتی، با اشاره به ویدئوی جعلی نانسی پلوسی گفت که با توجه به در پیش بودن انتخابات سال آینده ریاستجمهوری در آمریکا، «کابوسی» از پخش اطلاعات جعلی از زبان نامزدها بر این انتخابات سایه افکنده است.
آدام شیف پس از این جلسه به خبرنگاران گفت که هماکنون نیاز به بازبینی جدی مقررات فدرال در این زمینه حس میشود اما با این حال گفت که این مشکل جدید را شاید نتوان هیچگاه به طور کامل حل کرد بلکه تنها میشود آن را مرتباً سرکوب کرد.
در حال حاضر، پژوهشگران هوش مصنوعی در آمریکا در حال رقابتی تنگاتنگ با سازندگان ویدئوهایی جعلی عمقی هستند و تیمهای تحقیقاتی، بهویژه در دانشگاه کالیفرنیا در برکلی، در حال ساخت نرمافزارهایی پیشرفته برای مقابله با این پدیده تا پیش از فرارسیدن تاریخ انتخابات ۲۰۲۰ آمریکا هستند.
این محققان، ساعتهای طولانی از ویدئوهای در دست از شخصیتهای مهم را به این نرمافزار وارد میکنند تا این برنامه با تجزیه و تحلیل تمامی حرکات و وجنات این اشخاص به مرور بتواند کوچکترین انحراف از واقعیت را در ویدئوهای جدید شناسایی کند.
با وجود این تلاشها، نگرانیها در مورد آینده جعل عمقی، بهویژه در شبکههای اجتماعی، بسیار زیاد است و به نوشته یکی از کاربران این شبکهها: «بزرگترین تهدید از سوی فناوری جعل عمقی این نیست که دروغ را به جای حقیقت به خورد ما بدهند، بلکه ایجاد این حس در ماست که از این پس همه واقعیتهایی را هم که میبینیم و میشنویم جعل و دروغ بپنداریم.»