۲۰ مهر ۱۳۹۸، ۱۰:۱۰
کد خبر: 83513218
T T
۰ نفر

برچسب‌ها

دیپ فیک؛ دروغ تکنولوژی یا ابزار سرگرمی؟

۲۰ مهر ۱۳۹۸، ۱۰:۱۰
کد خبر: 83513218
دیپ فیک؛ دروغ تکنولوژی یا ابزار سرگرمی؟

شاید چند وقتی باشد که وقتی اسم هرچیز تقلبی که بیاید از عبارت «دیپ فیک» استفاده کنند، مثلاً همین چند وقت پیش بود که رادیو چهرازی هم برای آخرین پادکستش از هشتگ دیپ فیک استفاده کرد که بگویند چیزی که منتشر شده برای آن‌ها نیست. اما دیپ فیک واقعا چه معنایی دارد؟

تصور کنید یکی از نزدیکانتان با شما تماس تصویری می‌گیرد و می‌خواهد به سرعت مبلغی پول به یک شماره حساب واریز کنید. ساعتی بعد برادر یا خواهر خود را می‌بینید و از او می‌پرسید که مسئله چه بوده است اما او روحش هم از چنین چیزی خبر ندارد. مسئله چیست؟ شما شک ندارید که کسی که با شما تماس گرفت برادر یا خواهر شما بوده است با همان صدا و همان چهره. احتمالاً شما فریب پدیده‌ای به نام «دیپ فیک» را خورده‌اید.

ساخت یک کپی از خودتان

دیپ فیک یا جعل عمیق، یک تکنیک است که به کمک دوربین حالت‌های مختلف چهره یک نفر را در موقعیت‌های مختلف مانند حرف زدن، حرکت کردن و هر حالت دیگر، تشخیص می‌دهد و سپس به کمک هوش مصنوعی می‌تواند آن حالت‌ها را بر روی چهره فرد دیگری کاملاً کپی کند. در نتیجه شما رفتارهایی را از کسی می‌بینید در حالی که آن فرد در واقعیت هیچ وقت آن چیزها را نگفته یا آن کارها را انجام نداده است. دیپ فیک ترکیبی از دو واژه یادگیری عمیق (Deep Learning) و جعل(Fake) است. این فناوری می‌تواند محتوای صوتی و تصویری را به دلخواه تغییر دهد.

دیپ فیک بر دو سیستم استوار است. یکی از سیستم‌ها خلق می‌کند و دیگری تشخیص می‌دهد. در فرایند خلق کردن، سیستم یک چهره یا صدا را دریافت کرده و تلاش می‌کند آن را عیناً خلق کند، سیستم دوم این محصول را با نسخه اصلیش مقایسه کرده و شباهت چیزی که تولید شده با اصل آن را بررسی می‌کند. فرایند خلق و تأیید آنقدر تکرار می‌شود تا چهره یا صدایی که مورد نظر است عیناً ساخته شود.

اما این همه ماجرا نیست. همین چند وقت پیش بود که ویدئویی از باراک اوباما در فضای مجازی دست به دست شد که در آن رئیس جمهور سابق آمریکا درباره خطر گسترش پدیده‌ای به نام دیپ فیک صحبت می‌کرد. اما همان ویدئو هم با تکنیک دیپ فیک ساخته شده بود! در حقیقت هیچ ابزاری وجود ندارد که جعلی بودن ویدئوی ساخته شده با دیپ فیک را اثبات کند. به همین دلیل محققان در حال تلاش برای ساخت نرم‌افزارهای تشخیصی هستند.

در این زمینه بخوانید:

زیر و بمی از جدیدترین بیماری روانی؛ اعتیاد به بازی‌های دیجیتال!

دیپ فیک از کجا آمد؟

ماجرا از سال ۲۰۱۷ شروع شد. یک کاربر اینترنت که اسم خودش را «دیپ فیک» گذاشته بود، با استفاده از یک الگو تلاش کرد چهره سلبریتی‌ها را روی فیلم‌های مستهجن کپی کند. هرچند جلوی کار او گرفته شد اما بعد از این حرکت بود که موجی از چنین کپی کردن‌هایی به راه افتاد و ویدئوهای دیپ ‌فیک زیادی در حوزه‌های مختلف ساخته شد. کارشناسان می‌گویند که حدود ۱۰۰۰۰ ویدئوی جعلی در سرتاسر اینترنت در حال گردش است و همچنان هم ادامه دارد. از این تعداد ویدئو بیشتر از ۸۰۰۰ ویدئو مستهجن محسوب می‌شوند. برنامه‌هایی مانند FakeApp ، DeepFaceLab، FaceSwap و myFakeApp  برنامه‌هایی هستند که نمونه ساده شده این تکنیک را ارائه می‌کنند. البته چند سال است که برنامه‌ای به نام FaceApp حسابی بین کاربران گوشی‌های هوشمند معروف شده است. این برنامه امکاناتی مثل تبدیل چهره آن‌ها به مدل پیر شده خودشان و جابه‌جایی حالت چهره دو نفر را دارد. این مدل برنامه‌ها نمونه‌های ساده شده تکنیک‌ دیپ فیک هستند.

نیمه تاریک و روشن ماجرا

مثل هر تکنولوژی جدیدی، دیپ فیک هم اثرات مثبت و منفی خودش را دارد. یکی از پیامدهای منفی این ماجرا، استفاده‌ از این تکنیک در ساخت فیلم‌های مستهجن است. به صورتی که افراد می‌توانند از این قابلیت در ساخت فیلم‌های جعلی غیراخلاقی استفاده کنند. مشکل دیگر استفاده از این تکنیک در فعالیت‌های مجرمانه و انواع کلاهبرداری است. همچنین گروه‌های مختلف سیاسی می‌توانند با استفاده از دیپ فیک ویدئوهای جعلی از سیاستمداران مختلف ساخته و بر مسائل سیاسی و انتخاباتی تأثیر بگذارد. 

البته دیپ فیک کاربردهای مفیدتری هم دارد. سینما، بازار و تبلیغات از بزرگترین کاربران این تکنولوژی هستند. یکی از مفیدترین ویدئوهای مثبتی که به کمک دیپ فیک تولید شد، ویدئویی از یک فوتبالیست مشهور خارجی بود که به ۹ زبان درباره خطرات ابتلا به بیماری مالاریا توضیح می‌داد. همچنین یکی از مهم‌ترین کاربردهای این تکنولوژی در دوبله است که می‌توان فیلم‌ها را با صدا و تصویر بازیگر دوبله کرد و این مسئله به معنای خداحافظی با زیرنویس است.

۰ نفر

اخبار مرتبط

نظر شما

شما در حال پاسخ به نظر «» هستید.