دوشنبه, ۲۹ اردیبهشت ۱۴۰۴
  • EN
  • تبلیغات
  • تماس با ما
  • درباره ما
فوت و فن
  • دانش و فن
    • موبایل و تبلت
    • هوش مصنوعی
    • اپراتورها و وب
    • برنامه و نرم افزار
    • دنیای بازی
    • گوناگون
      • تلویزیون
      • سخت افزار
  • اقتصاد
    • اقتصاد بین الملل
    • بازارها
    • بانکداری و تجارت الکترونیک
    • خودرو
    • وبگردی
    • رپورتاژ
  • ورزش
    • فوتبال
    • موتوری
  • سبک زندگی
    • سلامت
    • تغذیه
    • طبیعت
    • حیوانات
    • آشپزی
    • خلاقیت
  • گردشگری
    • گردشگری
  • فرهنگ و هنر
    • فیلم و سریال
    • کتاب و مجله
    • آثار باستانی
    • صنایع دستی
  • چند رسانه‌ای
    • عکس
    • ویدیو
    • خودمونی
    • همیاری
دانش و فنهوش مصنوعی

جعل ویدئو با هوش مصنوعی، چالشی جدید در دنیای خبر و سیاست

تیم فوت و فن 30 خرداد 1398
A+A-
Reset
1

هر روز خبرهایی از پیشرفت در رشته هوش مصنوعی منتشر می‌شود و همزمان، این خبرها به نگرانی از پیامدهای احتمالاً خطرناک این فناوری دامن می‌زند.

اخیراً انتشار دو ویدئوی جعلی که برای تخریب دو چهره معروف با استفاده از هوش مصنوعی ساخته شده این بحث را وارد مرحله جدیدی کرده است، به‌ویژه که تشخیص تفاوت جعل و واقعیت در این ویدئوها تقریباً ناممکن است.

اواخر ماه گذشته میلادی یک ویدئوی جعلی و دستکاری‌شده از «سخنرانی» نانسی پلوسی، رئیس دموکرات مجلس نمایندگان آمریکا و از مخالفان سیاست‌های رئیس جمهوری آمریکا، منتشر شد که در آن وی به عنوان شخصی «مست و دچار لکنت‌زبان» معرفی شده که از بیان درست کلمات عاجز است.

این ویدئو به سرعت در فیس‌بوک، یوتیوب و توئیتر پخش شد، دست‌کم سه میلیون بار تماشا شد، دونالد ترامپ، رئیس جمهوری آمریکا، در مورد آن توئیت کرد و شبکه تلویزیونی فاکس‌نیوز هم در برنامه‌های خود به آن پرداخت.

پس از آن‌که مشخص شد که ویدئو کاملاً جعلی است و با فناوری هوش مصنوعی ساخته شده، از فیس‌بوک خواسته شد که آن را حذف کند. فیس‌بوک با ذکر بندهایی از مقررات خود از حذف این ویدئو از صفحات این شبکه اجتماعی خودداری کرد، اما کمی بعد، یک ویدئوی جعلی دیگر دامن‌گیر مارک زاکربرگ، بنیان‌گذار خود فیس‌بوک شد.

در این ویدئو که هفته پیش منتشر شد، از بخشی از یک ویدئوی دو سال پیش مارک زاکربرگ استفاده شده و با یک الگوریتم هوش مصنوعی در آن تغییرات کاملی داده شده و در آن سخنانی جعلی از زبان زاکربرگ بیان می‌شود.

در ویدئوی جعلی، بنیان‌گذار فیس‌بوک به «تسلط یک‌نفره خود بر جهان از طریق در دست داشتن اطلاعات میلیاردها نفر» افتخار می‌کند و می‌گوید که «جان و آینده شما در دستان من است.» این ویدئو در اینستاگرام منتشر شد، شبکه‌ای که مالک آن شرکت فیس‌بوک است.

 

 

بنا بر گزارش‌ها، این دستکاری‌ها با استفاده از یکی از شاخه‌های پرکاربرد هوش مصنوعی، به نام یادگیری ماشینی انجام می‌شود. به‌خصوص یکی از تکنیک‌های یادگیری ماشینی به نام «یادگیری عمقی» برای این کار استفاده می‌شود که اطلاعات خام تصاویر و ویدئوها را دریافت کرده و لایه لایه به آن «عمق می‌دهد» تا این‌که محتوایی متفاوت اما به‌ظاهر شبیه واقعیت پیدا کند. برای همین به این نوع دستکاری «جعل عمقی» (Deepfake) می‌گویند.

نگرانی در مورد ویدئوهایی جعلی عمقی هم‌اینک در محافل سیاسی آمریکا بالا گرفته و کمیته اطلاعاتی مجلس نمایندگان آمریکا در روزهای اخیر جلسه ویژه‌ای در این مورد و چالش‌های مرتبط با آن تشکیل داد.

در این جلسه، آدام شیف، رئیس کمیته اطلاعاتی، با اشاره به ویدئوی جعلی نانسی پلوسی گفت که با توجه به در پیش بودن انتخابات سال آینده ریاست‌جمهوری در آمریکا، «کابوسی» از پخش اطلاعات جعلی از زبان نامزدها بر این انتخابات سایه افکنده است.

آدام شیف پس از این جلسه به خبرنگاران گفت که هم‌اکنون نیاز به بازبینی جدی مقررات فدرال در این زمینه حس می‌شود اما با این حال گفت که این مشکل جدید را شاید نتوان هیچگاه به طور کامل حل کرد بلکه تنها می‌شود آن را مرتباً سرکوب کرد.

در حال حاضر، پژوهشگران هوش مصنوعی در آمریکا در حال رقابتی تنگاتنگ با سازندگان ویدئوهایی جعلی عمقی هستند و تیم‌های تحقیقاتی، به‌ویژه در دانشگاه کالیفرنیا در برکلی، در حال ساخت نرم‌افزارهایی پیشرفته برای مقابله با این پدیده تا پیش از فرارسیدن تاریخ انتخابات ۲۰۲۰ آمریکا هستند.

این محققان، ساعت‌های طولانی از ویدئوهای در دست از شخصیت‌های مهم را به این نرم‌افزار وارد می‌کنند تا این برنامه با تجزیه و تحلیل تمامی حرکات و وجنات این اشخاص به مرور بتواند کوچک‌ترین انحراف از واقعیت را در ویدئوهای جدید شناسایی کند.

با وجود این تلاش‌ها، نگرانی‌ها در مورد آینده جعل عمقی، به‌ویژه در شبکه‌های اجتماعی، بسیار زیاد است و به نوشته یکی از کاربران این شبکه‌ها: «بزرگ‌ترین تهدید از سوی فناوری جعل عمقی این نیست که دروغ را به جای حقیقت به خورد ما بدهند، بلکه ایجاد این حس در ماست که از این پس همه واقعیت‌هایی را هم که می‌بینیم و می‌شنویم جعل و دروغ بپنداریم.»

 

منبع radiofarda
Deepfakeهوش مصنوعیویدیوی جعلی
0 نظر FacebookTwitterPinterestLinkedinTumblrVKEmail
تیم فوت و فن

مطلب قبلی
ال‌جی حاشیه رودخانه جاجرود در حوزه پارک ملی خجیر را پاک‌سازی کرد
مطلب بعدی
پنجمین دوره کمپ استعدادیابی «ایرانسل-لالیگا» برگزار شد

شما هم نظر دهید Cancel Reply

برای دفعه بعد که نظر می‌دهم نام و ایمیل من را در این مرورگر ذخیره کنید.

* با استفاده از این فرم، با ذخیره و مدیریت داده‌های خود توسط این وب سایت موافقت می‌کنم.

مطالب مرتبط

  • گپ جی پی تی | هوش مصنوعی ساخت...

    28 اردیبهشت 1404
  • شرکت OpenAI از عامل هوش مصنوعی Codex برای...

    28 اردیبهشت 1404
  • کشفی نوین درباره یادگیری مغز: نورون‌ها چگونه همزمان...

    26 اردیبهشت 1404
  • دیدگاه آمازون نسبت به مشاغل انسانی جدید در...

    25 اردیبهشت 1404
  • گوگل ابزارهای هوش مصنوعی برای محافظت از کاربران...

    23 اردیبهشت 1404
  • هوش مصنوعی در نمره‌دهی: سریع‌تر از معلمان، اما...

    22 اردیبهشت 1404
  • هوش مصنوعی چگونه علوم گرده و هشدارهای آلرژی...

    21 اردیبهشت 1404
  • چگونه هوش مصنوعی کارایی پاکسازی پلاستیک از اقیانوس‌ها...

    17 اردیبهشت 1404
  • کشف زبان پنهان لحن گفتار: هوش مصنوعی و...

    17 اردیبهشت 1404
  • حل بخشی از معمای خطوط نازکا با کمک...

    17 اردیبهشت 1404
  • بازگشت OpenAI به ساختار غیرانتفاعی؛ پیروزی اخلاق بر...

    16 اردیبهشت 1404
  • ویکی‌پدیا قصد ندارد هوش مصنوعی را جایگزین انسان‌ها...

    14 اردیبهشت 1404
  • چگونه هوش مصنوعی زبان بدن اسب‌ها را به...

    14 اردیبهشت 1404

درباره فوت و فن

درباره فوت و فن

با ما تجربه‌ای جذاب از دنیای اطراف را داشته باشید.

در «فوت و فن»، ما به دنبال راه‌های ساده و کاربردی برای بهبود زندگی هستیم. واژهٔ «فن» در فارسی به معنای «شگرد» و «ترفند» است. ما تلاش می‌کنیم این ترفندها را در زندگی روزمره خود به کار ببریم و مطالبی شگفت‌انگیز و مفید را با شما به اشتراک بگذاریم. هدف ما این است که با به اشتراک گذاشتن تجربیات و آموخته‌های خود، به شما کمک کنیم تا روش‌های جدید و ایده‌های تازه‌ای را در زندگی خود بکار ببرید. با ما همراه باشید تا زندگی را با کمک «فوت و فن»، به یک تجربهٔ خلاقانه و لذت‌بخش تبدیل کنیم.

لینک‌های مفید

تماس با ما

 

تبلیغات در فوت و فن

 

درباره ما

Facebook Twitter Instagram Linkedin Tumblr Youtube Email

حامیان

2010-2025@ - All Right Reserved. Designed and Developed by FOOTOFAN

فوت و فن
  • دانش و فن
    • موبایل و تبلت
    • هوش مصنوعی
    • اپراتورها و وب
    • برنامه و نرم افزار
    • دنیای بازی
    • گوناگون
      • سخت افزار
      • تلویزیون
  • اقتصاد
    • اقتصاد بین الملل
    • بازارها
    • بانکداری و تجارت الکترونیک
    • خودرو
    • وبگردی
    • رپورتاژ
  • ورزش
    • فوتبال
    • موتوری
    • تنیس
  • سبک زندگی
    • سلامت
    • تغذیه
    • طبیعت
    • حیوانات
    • خلاقیت
    • آشپزی
  • گردشگری
    • گردشگری
  • فرهنگ و هنر
    • فیلم و سریال
    • کتاب و مجله
    • آثار باستانی
    • صنایع دستی
  • چند رسانه‌ای
    • عکس
    • ویدیو
    • خودمونی
    • همیاری
  • English