پیدا و پنهان جعل عمیق یا دیپ فیک

بینو؛ فائزه زمانی/ تا به حال به روزی فکر کرده اید که دروغ تبدیل به واقعیت شود؟ واقعیتی که میتوان با چشم دید و با گوش شنید اما هرگز در دنیای مادی اتفاق نیفتاده است! تصورش هم وحشتناک است ولی در چند سال اخیر، این امر محقق شده است. بشر هوش مصنوعی را خلق کرد و هوش مصنوعی امروز میتواند شگفتی آفریند ولی این همه ماجرا نیست. هوش مصنوعی از سوی دیگر می تواند مغز انسان و قدرت شهود ما را به سخره بگیرد و تبدیل به یکی از جنجال برانگیز ترین تکنولوژی های تاریخ شود. همانگونه که در دیپ فیک و خلق جعل عمیق اینگونه بروز و ظهور یافته است.

 

دیپ فیک چیست؟

دیپ فیک یا جعل عمیق ترکیبی متشکل شده از لغات «یادگیری عمیق» و «جعل» است و به محتوای صوتی یا ویدیویی دستکاری و هم‌گذاشت شده ای اشاره دارد که به نظر واقعی می­ آید؛ اغلب اشخاصی در این محتواها ظاهر می­شوند، حرف یا عملی را انجام می­دهند که تا به حال هرگز چنین نکرده‌اند! این محتوا به وسیله تکنیک های هوش مصنوعی مانند ماشین لرنینگ (یادگیری ماشین) و دیپ لرنینگ (یادگیری عمیق) بوجود می­ آید. این فرایند شامل قرار دادن فیلم دو نفر در یک الگوریتم یادگیری عمیق به منظور آموزش آن برای تغییر چهره است. الگوریتمی که به شبکه‌های عصبی متکی است و مجموعه وسیعی از نمونه های داده را تجزیه و تحلیل می کند تا بتواند حالات چهره‌، شیوه‌ها و حتی صدا و بالا و پایین شدن لحن صوت یک شخص را تقلید کند. بنابراین همزمان از فناوری نگاشت صورت و هوش مصنوعی استفاده می‌شود تا صورت یا صدای فرد در فیلم با چهره یا صدای دیگری عوض شود.

دیپ فیک های اولیه از سال 2017 پا به دنیای مجازی گذاشتند. از بدو تولید تکنولوژی دیپ فیک، محتوای غیر اخلاقی توسط جاعل های عمیق بوجود آمد و انتشار یافت. در ادامه نیز از دیپ فیک برای ساخت محتوای جعلی در خصوص رهبران سیاسی‌، بازیگران زن‌، کمدین ها و سلبریتی‌ها استفاده شد. اگرچه در این میان بازار دیپ فیک های سیاسی و آسیب آنها داغ تر از سایرین بود. همان گونه که مشخص است، افرادی که در ابتدا مورد تهاجم این تکنیک قرار گرفتند، افرادی بودند که محتوای بسیار زیادی از آنها در دست بود؛ اما با پیشرفت نرم افزارهای سازنده دیپ فیک، امروزه دادن اطلاعات کمتری برای ساخت ویدیوهایی با کیفیت بهتر نیاز است.

برای فهم بهتر کارکرد و چیستی دیپ فیک، باید از تکنولوژی زیر ساخت آن نیز سخن بگوییم. دیپ فیک محصول شبکه های تخاصمی تولیدی (GAN) است، یعنی دو شبکه عصبی مصنوعی موسوم به «مولد» و «تشخیص دهنده» که بر روی مجموعه داده های یکسانی از تصاویر، فیلم ها یا صداها آموزش دیده اند. «مولد» سعی می کند نمونه های جدیدی بسازد که به اندازه کافی برای فریب «تشخیص دهنده» خوب باشد، شبکه ای که به منظور تعیین واقعی بودن رسانه های جدید کار می کند. به این ترتیب ، آنها یکدیگر را برای بهبود هدایت می کنند. یک شبکه تخاصمی تولیدی می تواند هزاران عکس از یک شخص را مشاهده کرده و یک پرتره جدید ایجاد کند که تقریباً به آن عکس ها نزدیک باشد، بدون اینکه کپی دقیق هر یک از آنها باشد!

چالش های دیپ فیک برای حکومت ها

درپی انتشار ویدیویی جعلی از باراک اوباما که در آن به رییس جمهور وقت ایالت متحده امریکا، دونالد ترامپ، توهین کرد و او را بی عقل خواند، اوباما نگرانی های خود را در خصوص پیشرفت دیپ فیک در یک سخنرانی ابراز کرد. اوباما تاکید کرد: «افراد قادر به تکثیر من و تغییر سخن‌هایم هستند و این کار به‌اندازه‌ای دقیق انجام می‌شود که گویی نسخه تکثیر‌شده، به‌واقع من هستم و آن‌ صحبت‌ها از زبان من گفته می‌شود؛ در‌حالی‌که همه‌چیز کاملاً ساختگی است.» رئیس جمهور اسبق ایالات متحده در ادامه ابراز نگرانی‌هایش در خصوص دیپ فیک تصریح کرد: «اگر به‌ مرحله‌ای برسیم که نتوان مرز بین حقیقت و دروغ را تشخیص داد، پایه‌های دموکراسی ما که برمبنای حقیقت بنا شده، به‌ لرزه خواهد افتاد.»

 

البته ناگفته پیداست که هر ابزار یا فناوری جدید به خودی خود خطرناک نیست و دیپ فیک نیز از این قاعده مستثنی نخواهد بود. گفتنی است که کاربرد این تکنولوژی تنها در خصوص تولید محتوای مخاطره آمیز نیست و چه بسا راه حل بسیاری از چالش های موجود در صنایع مختلف از جمله فیلم سازی، مد، تبلیغات و … است و باعث از بین نرفتن هزینه های تولید محتوا شود. اما همانطور که نحوه استفاده از هر تکنولوژی یا وسیله و فرهنگ استفاده از آن بسیار حائز اهمیت است، دردسترس بودن این تکنولوژی برای همگان موجب سواستفاده از آن شده است به طوری که به راحتی میتوان از این وسیله برای تولید محتوای غیراخلاقی، اخاذی، کلاهبرداری و … بهره جست.

 روش تشخیص دیپ فیک

همانطور که اشاره شد، شبکه های تخاصمی تولیدی خود دارای شبکه ای عصبی برای تشخیص جعلی بودن دیپ فیک است و تقریبا جواب این مسئله از ابتدا مشخص شده است. البته راه های دیگری به جز متوصل شدن به هوش مصنوعی برای تشخیص دیپ فیک نیز وجود دارد که شامل جستجوی معکوس محتوا و بزرگنمایی و بررسی نقطه به نقطه است. انتظار میرود در سالهای آینده و با پیشرفت این تکنولوژی، دیگر این راه ها عملی نباشند و همچنان تنها روش تشخیص دیپ فیک، بهره جستن از هوش مصنوعی برای خنثی کردن و تشخیص خودش باشد.

اما آنچه نگران کننده است، افزایش سرعت پیشرفت شبکه مولد نسبت به شبکه تشخیص دهنده است؛ بدین معنی که بخش مولد به قدری درست راهنمایی و تعلیم داده شده است که انتظار میرود در سالهایی نه چندان دور، بخش تشخیص دهنده نیز دیگر نتواند درستی یا نادرستی محتواهای تولید شده را تشخیص دهد و به گفته دانشمندان می‌بایست در افزایش سرعت پیشرفت شبکه تشخیص دهنده نیز اهتمام کرده و آن بخش را نیز حداقل به موازات بخش مولد به جلو هدایت کرد.

 

مقابله با دیپ فیک در کشورهای مختلف جهان

  • آمریکا:

در ایالات متحده امریکا، ایالت های کالیفرنیا و تگزاس اولین ایالت‌هایی بودند که در سال 2019 قوانینی مرتبط با این موضوع را تصویب کردند. بر اساس قانون جدید کالیفرنیا (AB 730) ، توزیع محتوای دستکاری شده در مورد نامزدهای سیاسی از 60 روز قبل از انتخابات به منظور آسیب رساندن به شهرت آنها و گمراه کردن رای دهندگان غیر قانونی است.

قانون تگزاس نیز بسیار شبیه به قانون کالیفرنیا است تنها با این تفاوت که مدت زمان تعیین شده  30 روز می­باشد. لازم به ذکر است که هر دو قانون با انتقادات قابل توجهی از جمله عدم سازگاری آنها با حق آزادی بیان روبرو شدند.

اقداماتی که قبلاً در سطح فدرال اتخاذ شده اند محدود به سیستماتیک و نهادینه کردن مجموعه اطلاعات بود، و اقدامات بعدی بر پایه همین قوانین اتخاذ شدند قانون شناسایی نتایج خروجی شبکه های تخاصمی تولیدی (قانون IOGAN)، بنیاد ملی علوم (NSF) را مسئول حمایت از تحقیقات در زمینه تولید، تجزیه و تحلیل اصالت محتوای دیپ فیک و موسسه ملی استاندارد و فناوری (NIST) را ملزم به انجام تحقیقات در مورد استانداردهای تقلبی کرده و هر دو موسسه به طور مشترک و با همکاری بخش خصوصی در مورد راه های تشخیص دیپ فیک با یکدیگر همکاری می­کنند. علاوه بر این، برای دومین سال پیاپی، قانون مجوز دفاع ملی ایالات متحده (NDAA) همچنین شامل اقداماتی است که برای مقابله با تقلب های عمیق در نظر گرفته شده است.

NDAA 2021 به وزارت امنیت داخلی (DHS) دستور می دهد تا گزارش سالانه «جعل محتوای دیجیتال» را به مدت پنج سال تهیه کند. برخلاف NDAA 2020، که تنها بر گزارشهای مربوط به استفاده ازدیپ فیک توسط کشورهای خارجی متمرکز بود، DHS اکنون نیز به منظور توسعه چشم انداز خود نه تنها در مورد نحوه استفاده دولت های خارجی از دیپ فیک، بلکه در طیف وسیعی از تهدیدات نیز مورد توجه قرار گرفته است. تقلب و جعل عمیق برای عموم مطرح می شود علاوه بر این ، این قانون همچنین به DHS نیاز دارد تا روش های تولید، تشخیص و مقابله با جعل های عمیق را مورد تحقیق قرار دهد.

اقدامات دیگر در سطح فدرال یا پیش از این با شکست مواجه شده و یا هنوز در حال بحث سیاسی هستند.

یکی از بحث های مربوط به دیپ فیک در ایالات متحده حول محور پیشنهاد «قانون پاسخگویی عمیق» بود که در سال 2019 مطرح شد. این پیشنهاد تصریح می کند که محتوای دیپ فیک باید برچسب گذاری شود و در غیر این صورت سازندگان با مجازات های سنگینی روبرو خواهند شد. این پیشنهاد به دلیل مهار نکردن هدف واقعی جلوگیری از توزیع ویدئوهای مخرب دیپ فیک مورد انتقاد قرار گرفته است. اگرچه با استفاده از فناوری های پیشرفته امروزی، تولیدکنندگان دیپ فیک می توانند هویت خود را مخفی کرده و مورد پیگرد قانونی قرار نگیرند، در حالی که سایر تولیدکنندگان محتواهای قانونی میبایست در هر زمان جوابگوی قانون باشند.

 

  • اتحادیه اروپا:

اتحادیه در سال 2017 کمیسیونی برای مقابله با اخبار جعلی بوجود آورد و در سال 2018، طرحی پیشنهادی در مورد اخبار جعلی تولید شده توسط هوش مصنوعی و دیگر ابزار ارائه کرد. این طرح که به طور مستقیم درباره دیپ فیک نبود اما حوزه های مرتبط را در برمیگرد شامل لزوم شفافیت کامل در استفاده از الگوریتم ها، هوش مصنوعی و تصمیم گیری خودکار با توجه به مسدود، فیلتر و حذف محتوای اینترنتی دلخواه، اهمیت سازمان‌های مستقل و بی طرف برای بررسی واقعیت شخص ثالث؛ تعهدات و ابزارهای مربوط به تأیید منبع؛ توانمندسازی کاربران برای گزارش و پرچم گذاری اطلاعات غلط احتمالی؛ و نمایش و برچسب گذاری اطلاعات نادرست برای تحریک بحث عمومی و جلوگیری از ظهور مجدد محتوا می‌شود.

کلمه دیپ فیک از سال 2019 وارد مقررات اتحادیه اروپاشد. جایی که در مصوبات پارلمان اروپا در فوریه آن سال، از کمیسیون خواسته شد تا به وضع الزاماتی به منظور برچسب گذاری و اعمال اقدامات سختگیرانه برای تولید کنندگان چنین محتوایی بپردازد. همچنین در گزارشی در سال 2020 درباره حقوق مالکیت معنوی برای توسعه هوش مصنوعی، پارلمان خواستار افزایش آگاهی و سواد رسانه ای ، به منظور مبارزه با احتمال دستکاری دسته جمعی از طریق جعل‌های عمیق شد.

آخرین مستندات موجود درباره اقدامات اتحادیه در این مورد، مصوبات پارلمان در 19 می سال 2021 با عنوان «هوش مصنوعی در آموزش، فرهنگ و بخش سمعی و بصری» است.  این مصوبات علاوه بر پیشنهاداتی که قبلاً در بالا ذکر شد، شامل طرح های پیشنهادی مختلف آینده نگر نیز است. این موارد شامل اهمیت افزایش آگاهی از خطرات ناشی از تقلب های عمیق و بهبود سواد دیجیتالی. پرداختن به مشکلات فزاینده تشخیص و برچسب زدن محتوای کاذب و دستکاری شده با استفاده از ابزارهای تکنولوژیکی، درخواست از کمیسیون برای معرفی چارچوب های قانونی مناسب برای کنترل ایجاد، تولید یا توزیع محتوای تقلبی با اهداف مخرب، ترویج توسعه بیشتر قابلیت های تشخیص و همچنین بهبود شفافیت با توجه به محتوایی که برای کاربران پلتفرم نمایش داده می شود و به آنها آزادی بیشتری برای تصمیم گیری در مورد اینکه چه اطلاعاتی می خواهند دریافت کنند است.

 

  • چین

سالهاست که انتشار دیپ فیک به یک پدیده فرهنگی گسترده در چین تبدیل شده است. برنامه های مختلف برای تولید دیپ فیک در سال های اخیر از موفقیت چشمگیری برخوردار بوده اند. اگرچه همانند سایر دولت ها، دولت چین نیز در تلاش است تا اثرات مضر احتمالی ناشی از دیپ فیک را مهار کند. به همین منظور، دولت قانونی را تصویب کرد که از 1 ژانویه 2020 به اجرا درآمد. این قانون تصریح می کند که همه ویدیوهای تقلبی یا محتوای صوتی یا محتواهایی که با استفاده از الگوریتم های یادگیری عمیق یا فناوری های VR ایجاد می شوند، باید توسط تهیه کنندگان برنامه برچسب گذاری شوند. این قانون اپراتورهای پلتفرم را موظف می کند تا محتوای بدون برچسب را شناسایی و علامت گذاری یا حذف کنند. بر اساس قانون جدید ، تولید و انتشار اخبار جعلی ممنوع است و بنابراین باید بلافاصله پس از شناسایی حذف شوند.

مسئولیت اجرای قوانین به عهده سازمان فضای مجازی چین (CAC) است. از آنجا که مقامات چینی با این چالش روبرو هستند که علیرغم ممنوعیت، جنایتکاران یا مخالفان بتوانند به انتشار محتوای غیرقانونی یا سیاسی ناخواسته ادامه دهند، این قانون شامل اقدامات تکمیلی برای اجرای موثر قوانین زیر است:

  • کاربران باید مطابق قانون امنیت سایبری در سیستم عامل هایی با اطلاعات قابل شناسایی مانند شناسه های دولتی یا شماره تلفن های همراه ثبت نام کنند.
  • بسترها باید کانال‌های شکایتی را برای استفاده آسان ایجاد کنند.
  • خدمات صوتی و تصویری باید استانداردها و دستورالعمل‌های صنعت را صادر کرده و یک سیستم اعتباری ایجاد کند.
  • ادارات دولتی باید بازرسی های منظمی را برای اطمینان از اینکه سیستم عامل ها صوت و تصویر آنلاین را مطابق با موافقت نامه های خدمات تنظیم می کنند ، سازماندهی کنند

اخیراً ، در اواسط مارس 2021 گزارش شد که CAC جلسه ای با 11 اپراتور پلت فرم چینی تشکیل داده است ، که در آن بار دیگر بر خواسته‌های تنظیم کننده و دولت چین تأکید شد.

 

 

منابع:

https://timreview.ca

https://www.theguardian.com

Tackling deepfakes in European policy

Joint Audio-Visual Deepfake Detection

مطالب مرتبط

دیدگاهتان را بنویسید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *