سوء استفاده از چهره اسکارلت جوهانسون در فیلم‌های غیراخلاقی

سه‌شنبه 11 دی 1397 سینما
سوء استفاده از چهره اسکارلت جوهانسون در فیلم‌های غیراخلاقی

اسکارلت جوهانسون چهره سرشناس سینما و مد، می گوید یکی از قربانیان اصلی هوش مصنوعی طی سال ۲۰۱۸ بوده است. او در جریان یک مصاحبه با واشنگتن پست اعلام کرده که طی سال ۲۰۱۸ از چهره او در فیلمهای غیراخلاقی سوء استفاده شده است.

این روزها واژه Deepfake به وفور شنیده می شود و حتی رئیس جمهور ایالات متحده نیز از این نوع هوش مصنوعی دلخوری هایی دارد. اما اسکارلت جوهانسون یکی از افرادی است که در زندگی شخصی و حرفه ای خود به شدت از این هوش مصنوعی لطمه دیده است.

 

تکنولوژی Deepfake  از یک  نرم افزار مبتنی بر هوش مصنوعی برای جمع کردن تصاویر یک فرد استفاده می کند و سپس چهره مورد نظر خود را روی آن قرار می دهد. این اتفاق می تواند به شکل یک تصویر ثابت، فیلم کوتاه یا حتی فیلم بلند باشد.

 

جوهانسون می گوید طی سال ۲۰۱۸ چند فیلم غیراخلاقی با همین تکنولوژی در مورد او ساخته شده است،اما تلاشهای متعدد جوهانسون برای متوقف کردن این روند عملا راه به جایی نبرده است و فضای مجازی، این فیلمها را به شدت نشر داده است.

 

یکی از نمونه های پربازدید این تکنولوژی ویدئوی ترور باراک اوباما رئیس جمهور پیشین ایالات متحده است، اما جوهانسون می گوید فیلمهای غیراخلاقی نیز کارکردی مساوی با ترور شخصیت دارند.

 

بر اساس بررسی های جدید یکی از نمونه فیلمهای غیراخلاقی مرتبط با جوهانسون از مرز  ۱.۵ میلیون بازدیدکننده در یک سایت غیراخلاقی گذشته است.

 

ستاره سرشناس سینما قربانی هوش مصنوعی شد / سوء استفاده از چهره اسکارلت جوهانسون در فیلمهای غیراخلاقی

 

جوهانسون می گوید: ” این نخستین بار در زندگی من بود که نسبت به تکنولوژی احساس ناتوانی و خشم کردم چرا که به نظر می رسد هیچ نیرویی قادر نیست چهره من را از این فیلمهای جعلی حذف کند. واقعیت این است که تلاش های من  برای محافظت از خود در اینترنت و پیشگیری از تخریب چهره ام عملا بی فایده بود و اینترنت وجه تاریک و خشن خود را به من نشان داد. ”

 

اما اسکارلت جوهانسون تنها قربانی فیلمهای جعلی نیست و بر اساس آمارها دهها زن دیگر که از شهروندان معمولی جامعه هستند نیز قربانی این تکنولوژی شده اند. یکی از انان که مایل به افشای هویت خود نیست در گفتگو با واشنگتن پست می گوید: “این احساس عجیب و غریب است، مثل این که شما یک کابوس تلخ می بینید که اصلا به شما ربطی ندارد.”

 

اگرچه علت این حرکت ها چندان روشن نیست اما گروهی از تحلیلگران معتقدند این کار با هدف تحقیر و آزار و اذیت زنان انجام می شود. اما این ویدئوها سوداوری مالی هم دارند و برخی اوقات ویدئوهای جعلی  به ازای هر یک بار بازدید تا ۲۰ دلار  درامد زایی دارند. بر اساس پژوهش های واشنگتن پست این زن قربانی ۴۹۱ عکس در حساب فیسبوکش داشته و سازندگان ویدئوی غیراخلاقی هم از همین تصاویر استفاده کرده اند.

 

یک مشکل بزرگ در مورد فیلم های Deepfake این است که نمی توان بلافاصله حذفشان کرد و قانونی هم در مورد شکایت از این فیلمها تعریف نشده است.

 

واکنش‌چهره به فیلم صحنه دار از شبکه کیش

واکنش‌چهره به فیلم صحنه دار از شبکه کیش

ایرانی و خارجی در سال نوی میلادی ۲۰۱۹

تبریک اینستاگرامی هنرمندان ایرانی و خارجی در سال نوی میلادی ۲۰۱۹

×

ارسال دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

انتخاب استان برای وضعیت آب‌و‌هوا