دیپ فیک چیست و چگونه کاربران را گمراه می کند؟
مشاهده برابر با باور است. ما انسان ها سالهاست که از این روش برای پیشبرد اهدافمان استفاده میکنیم و موارد بیشتری به زیر شاخههای آن اضافه میشود. در این چند سال، ویدیوهای بسیاری در رابطه با صحبت بزرگان و پرچمداران کشورهای مختلف در شبکههای اجتماعی پرطرفدار اشتراک گذاری میشود که حاوی محتواهای غیرقابل باور هستند و فناوری دیپ فیک در حال جا باز کردن میان کاربران و محتواهای اینترنتی است.
دیپ فیک دیدگاه بسیاری از افراد را نسبت به محتواهای ویدیویی تغییر داد و باعث شد تا حواسمان بیشتر به ویدیوهای منتشر شده باشد.
دیپ فیک چیست؟
دیپ فیک ترکیبی از دو کلمه ”دیپ لرنینگ” و کلمه ”فیک” است و این بدان معناست که نرم افزار هوش مصنوعی برای ساخت چنین ویدیوهایی، عکس ها را با هم ترکیب میکند تا ویدیویی بی نقص و کاملا طبیعی تولید شود.
از اینرو، دیپ فیک یک ابزار تولید ویدیوهای فیک است که از هوش مصنوعی برای جایگزین کردن چهره و صدا استفاده میکند. این هوش مصنوعی میتواند صورت هدف (منبع) را روی ویدیو شخص دیگری پیاده کند. نسخههای پیشرفتهتر این هوش مصنوعی به قدری قوی هستند که میتوانند مدل کاملا جدیدی از یک شخص را با حالتهای صورت تولید کنند و به نوعی هویت افراد را جعل کنند.
نکته جالب این فناوری، استفاده از منابع تصویری محدود برای ساخت چنین ویدیوهایی است. هرچند، هرچه میزان تصاویر و محتوای شما بیشتر باشد، دیپ فیک نیز ضعفهای کمتری خواهد داشت. به لطف سیاستمداران و سلبریتیها، کاربران میتوانند تصاویر بهتر و بیشتری را ثبت کنند و از آنها برای تولید ویدیوهای دیپ فیک استفاده کنند.
این برنامه متن باز توجهات کاربران فضای مجازی را بیش از قبل به خود جلب کرده و حالا میتوانند برای ساخت ویدیوهای خنده دار و حتی کار از آن استفاده کنند.
در پشت صحنه چه می گذرد؟
فناوری که پشت دیپ فیک قرار دارد برای اهداف مختلفی ساخته شده است. همانند برنامه فوتوشاپ، این فناوری نیز از کاربران حرفهای، متوسط و تازه کار پشتیبانی میکند که هریک از طریق این برنامه محتواهای جدید و خلاقانهای تولید میکنند. به علاوه، خالقان این فناوری همانند فوتوشاپ هیچ قصدی برای اقدامات شیطانی نداشتند و تنها کاربران با برنامههای خود دیپ فیک را به ابزاری منفی و تخریب گر تبدیل کرده اند.
فناوری جابجایی چهره، اولین بار در صنعت فیلمسازی مورد استفاده قرار گرفت. یکی از معروف ترین نمونههای این کاربرد به سال ۲۰۱۶ و فیلم Rogue One: A Star Wars برمیگردد. در این اثر، سازندگان از فناوری جابجایی چهره و به هم پیوستگی ویدیو برای خلق دوباره چهره Grand Moff Tarkin استفاده کردند.
نسخه جوانتر پرنسس لیا نیز در این فیلم ساخته شده بود. در این دو مدل ذکر شده، فناوری دیپ فیک، صورت بازیگران را برای استفاده در فیلم جعل و شبیه سازی میکرد و برنامههایی مانند اسنپ چت از فناوری جابجایی صورت برای ساخت ویدیوهای خنده دار بهره میبرند.
توسعه دهندگان این قابلیت را به شکلی در اسنپ چت قرار دادهاند که به شکل مبرمی به سیستم تشخیص چهره نیاز دارد تا بتواند تغییرات را به شکل موثرتری پیاده سازی کند.
در سمتی دیگر، این فناوری در بخش آموزشی و به منظور ساخت هولوگرام نیز مورد استفاده قرار میگیرد. به عنوان نمونه، پروژهای با بهره گیری از پیوسته سازی ویدیو، تشخیص چهره و شبیه سازی، بازماندگان هولوکاست را شبیه سازی کرد که میتواند به عنوان هولوگرامی تعاملی در موزهها مورد استفاده قرار بگیرد.
دیپ فیک به سرعت پیشرفت می کند
اگرچه یادگیری ماشین زندگی ما را به شکل قابل توجهی آسان میکند، اما صنعت تولید تصویر مبتنی بر هوش مصنوعی نیز همانند دیپ فیک، طبیعت ویدیوهای آنلاین را تغییر داده است و تمامی این تغییرات مثبت نیستند.
اولا، نرم افزار دیپ فیک به شکل گسترده و رایگان در دسترس کاربران قرار دارد و پیشرفت آن به گونهای است که کاربران کمتر به آن شک میکنند و ویدیوها بسیار نزدیک به واقعیت هستند. در بعضی اوقات، تشخیص ویرایش ویدیو آنقدرها که فکر میکنیم آسان نیست و تنها با معیارهای خاصی میتوانیم به این پیشرفت پاسخ دهیم.
در جهانی که ما در آن زندگی میکنیم، دیپ فیکهای دروغین اما متقاعد کننده همانند مهری بر موضوع هرج و مرج اطلاعات هستند. دیپ فیک در این مسیر تنها نیست و با هوش مصنوعیهای تولید صدا به گونهای رو به جلو میتازد که در آینده نه چندان دور با ضعف تشخیص هویت مواجه میشویم و تشخیص درست و غلط بدون استفاده از ابزارها برای ما غیر ممکن میشود.
از اینرو، نه تنها هوش مصنوعی میتواند از طریق ویدیو و عکسها جعل هویت کند، بلکه این بدان معناست که دیگر برای استفاده از صدای افراد نیازی به جعل صدای آنها نداریم و میتوانیم هوش مصنوعی را توسعه دهیم که الگوی لبخوانی آنها را نیز شبیه سازی میکند.
پیامدها
اگرچه بسیاری از کاربران از دیپ فیک برای سرگرمی و تولید محتوای خنده دار استفاده میکنند، اما عدهای نیز هستند که با شبیه سازی چهره بازیگران و سلبریتیها، آنها را در شرایط سختی قرار میدهند و این موضوع بازتاب گستردهای را در شبکههای اجتماعی تیک تاک و اینستاگرام دارد.
در ادامه نیز، بسیاری از کشورها قانونی برای سوء استفاده از اشخاص و استفاده نادرست از دیپ فیک وضع نکرده اند. از طرفی، روزانه ویدیوهای بسیاری با دیپ فیک ساخته میشود و در شبکههای اجتماعی به اشتراک گذاشته میشود که نگران کننده است.
پیامدهای استفاده از دیپ فیک برای اهداف سیاسی دو جانبه است. اولا، باعث میشود تا اخبار غلط به سرعت پخش شوند. به علاوه، ویدیوها روشی بهتر نسبت به متن و عکس برای گمراه کردن کاربران هستند و بسیاری از کاربران با خواندن تیتر ویدیو تا حدی محتوای ویدیو را باور میکنند.
یکی از نمونههای ترسناک و معروف دیپ فیک، زمانیکه رییس جمهور اوکراین به نیروهای خود دستور تسلیم میدهد. اگرچه غلط بودن محتوای این ویدیو چندی بعد تایید شد، اما همچنان در شبکههای اجتماعی و بین کاربران دست به دست میشود.
در سمتی دیگر، دیپ فیکها میتوانند سیاستمداران را نسبت به قبل جسورتر کنند. این بدان معنی است که آنها میتوانند پس از سخنرانی و اشتراک گذاری ویدیو خود مبنی بر ادعا، اظهار کنند که این ویدیو با دیپ فیک ساخته شده و حرفهای خود را نقض کنند.
چگونه با دیپ فیک مبارزه کنیم؟
اگرچه، حفاظت از خود برای در امان ماندن از دیپ فیک امر دشواری است، اما کمپانیها در تلاش هستند تا تشخیص ویدیوهای دیپ فیک را آسانتر از گذشته کنند. طیف گستردهای از ابزارها برای مبارزه با ویدیوهای فیک درنظر گرفته شده است و اکثر آنها از هوش مصنوعی برای تشخیص تغییرات استفاده میکنند.
گروه AI Foundation پلاگین بخصوصی را برای مبارزه با دیپ فیک ساخته است که Reality Defender نام دارد و به کاربران کمک میکند تا فیک بودن محتوای آنلاین را تشخیص دهد. یکی دیگر از این پلاگین ها، Surfsafe نام دارد که عملکرد مشابهی دارد. این ۲ ابزار در زمینه تشخیص محتوای نادرست کاربردی هستند و واقعیت را از دروغ تشخیص میدهند.
یکی دیگر از تلاشهای بکارگرفته شده به منظور مبارزه با دیپ فیک به دپارتمان امنیت آمریکا باز میگردد که در این زمینه هزینه زیادی را صرف توسعه نرم افزار میکند. رهبران کشورها به منظور اصلاح دیپ فیکها و ادعای غلط به منظور استفاده از موشک باید از نرم افزارهای پیشرفته استفاده کنند و اطلاعات غلط را به سرعت اصلاح کنند.
منبع: تکفارس