Deepfakes که از “یادگیری عمیق” و “جعلی بودن” سرچشمه می گیرد، از هوش مصنوعی پیشرفته برای ساخت محتوای فوق واقعی ، باور پذیر و در عین حال کاملاً مصنوعی، ویدئوها، صدا، تصاویر و حتی روایت های متنی استفاده می کند.
هوش مصنوعی Deepfake نوعی هوش مصنوعی است که برای ایجاد تصاویر متقاعد کننده، از فریب های صوتی و تصویری استفاده می شود. این اصطلاح هم فناوری و هم محتوای جعلی ناشی از آن را توصیف میکند و یک نمونه از یادگیری عمیق و جعلی است. دیپفیکها اغلب محتوای منبع موجود را تغییر میدهند، جایی که یک نفر با دیگری عوض میشود. آنها همچنین محتوای کاملاً حقیقی را ایجاد می کنند که در آن شخصی در حال انجام یا گفتن چیزی است که انجام نداده و یا نگفته است.
بزرگترین خطری که دیپ فیک ایجاد می کند، توانایی آنها در انتشار اطلاعات نادرست است که به نظر می رسد از منابع قابل اعتماد آمده است.
پیش گفتار
در عصر دیجیتال، تشخیص داده های واقعی از داستان به طور فزاینده ای چالش برانگیز شده است، در درجه اول به دلیل فناوری هایی مانند Deepfakes. که در ادامه به آن می پردازیم.
به عنوان مثال، در سال 2022 یک ویدیوی دیپ فیک از ولدیمیر زلنسکی، رئیس جمهور اوکراین منتشر شد که از سربازانش می خواهد تسلیم شوند. همچنین نگرانی هایی در مورد احتمال دخالت در انتخابات و تبلیغات انتخاباتی مطرح شده است. در حالی که دیپ فیک ها تهدیدهای جدی هستند، کاربردهای قانونی نیز دارند، مانند صدا و سرگرمی بازی های ویدیویی، و برنامه های کاربردی پشتیبانی مشتری و پاسخ به تماس گیرندگان، مانند خدمات ارسال تماس و پذیرش تماس .

شیرجه عمیق به مکانیزم Deepfake
شبکه های متخاصم مولشبکه مولد تخاصمی (Generative Adversarial Network) یا به اختصار GAN ، نشان دهنده تغییر در طراحی معماری برای شبکه های عصبی عمیق است. در سال 2014 توسط یان گودفلو (Ian J. Goodfellow) و نویسندگان همکار او معرفی شد. GANها وظایف یادگیری بدون نظارت را در یادگیری ماشین انجام میدهند. این شبکهها شامل دو مدل هستند که به طور خودکار، الگوهای موجود در دادههای ورودی را کشف کرده و یاد میگیرند. این دو مدل با نامهای مولد (Generator) و متمایزگر (Discriminator) شناخته میشوند. مولد و متمایزگر، برای بررسی، ضبط و تکرار تغییرات درون مجموعه داده با یکدیگر رقابت میکنند. میتوان از GANها برای تولید نمونههای جدیدی که به طرز قابل قبولی از مجموعه داده اصلی قابل تهیه هستند، استفاده کرد.نشان دهنده تغییر در طراحی معماری برای شبکه های عصبی عمیق است.
چندین مزیت برای استفاده از این معماری وجود دارد.
با دادههای محدود تعمیم مییابد، صحنههای جدیدی را از مجموعه دادههای کوچک تصور میکند و دادههای شبیهسازی شده را واقعیتر نشان میدهد. اینها موضوعات مهمی در یادگیری عمیق هستند زیرا امروزه بسیاری از تکنیک ها به مقادیر زیادی داده نیاز دارند. با استفاده از این معماری جدید، میتوان مقدار دادههای مورد نیاز برای تکمیل این وظایف را به شدت کاهش داد. در قلب Deepfakes، شبکههای متخاصم مولد (GANs)، یک معماری شبکه عصبی پیچیده قرار دارد. در اینجا یک نگاه عمیق است:
- مولد: با یک حدس تصادفی شروع می شود، مولد به تدریج خروجی خود را اصلاح می کند و سعی می کند قطعه ای از محتوا را ایجاد کند که منعکس کننده داده های واقعی باشد.
- متمایز کننده: متمایز کننده به عنوان کنترل کیفیت، محتوای تولید شده را در برابر داده های واقعی ارزیابی می کند و نادرستی ها را مشخص می کند.
- پالایش تکراری: از طریق تکرارهای بیشماری، تولیدکننده و تمایزکننده با هم رقابت میکنند و محتوای مصنوعی را تا زمانی که عملاً از دادههای واقعی قابل تشخیص نیست، تقویت میکنند.

کاربردهای چندوجهی Deepfakes
فراتر از سرفصل های هیجان انگیز، Deepfakes دارای طیفی از برنامه های کاربردی سازنده است:
- جادوی سینمایی: دیپ فیک ابزارهایی را برای بازیگران پیر، احیای ستاره های نمادین، یا تولید شخصیت های واقعی CGI بدون هزینه های گزاف به فیلمسازان ارائه می دهد.
- احیای تاریخ: دروس تعاملی را تصور کنید که در آن دانشآموزان با شخصیتهای تاریخی «تعامل» میکنند، و روایتهای همهجانبه و اول شخص از رویدادهای محوری را تجربه میکنند.
- احیای صوتی: از بهبود وفاداری صوتی در ضبطهای قدیمی گرفته تا ترجمه بلادرنگ زبان در کنفرانسهای ویدئویی، پتانسیل بسیار زیاد است.

استفاده نادرست Deepfake پیمایش در آبهای تیره
از زمان ظهور این فناوری ها، فعالیت های مجرمانه مانند انتشار عکس ها و فیلم های جعلی از افراد مشهور در اینترنت افزایش یافته است. حتی ممکن است سیاستمداران و مقامات ارشد یک کشور قربانی فیک های عمیق شوند و این اتفاق برای چندین رئیس جمهور آمریکا افتاده است. افرادی که قصد تخریب چنین مقاماتی را دارند، می توانند با ساختن فیلم های جعلی حاوی اخبار و دستورات ناخوشایند، اعتماد مردم را به آنها از بین ببرند و از محبوبیت آنها بکاهند. قدرت Deepfakes، زمانی که سوء استفاده شود، می تواند عواقب بدی داشته باشد:
- اپیدمی اطلاعات نادرست: دیپفیکها میتوانند سخنرانیها یا اقدامات تقلبی ایجاد کنند، روایتهای نادرستی را منتشر کنند که میتواند افکار عمومی را تحت تأثیر قرار دهد، بازارهای سهام را دستکاری کند یا حتی بر نتایج انتخابات تأثیر بگذارد.
- تجاوز به حریم خصوصی دیجیتال: تنها با چند تصویر یا کلیپ، افراد را می توان در سناریوهای ساختگی قرار داد که منجر به افترا، باج خواهی یا آزار و اذیت سایبری بالقوه می شود.
- کمبود اعتماد: با گسترش Deepfakes، شک و تردید نسبت به محتوای دیجیتال افزایش مییابد و اعتماد عمومی به رسانهها، موسسات و حتی خاطرات شخصی را از بین میبرد.
تقویت دفاع در برابر دیپ فیک
مقابله با تهدید Deepfake نیازمند یک استراتژی چند وجهی است:
- تشخیص مبتنی بر هوش مصنوعی: به طور متناقض، هوش مصنوعی، ابزاری که Deepfakes را ایجاد می کند، بهترین گزینه ما برای شناسایی آنها است. مدلها برای شناسایی ناسازگاریهای جزئی در محتوای مصنوعی اصلاح میشوند.
- واترمارک دیجیتال: محتوای معتبر را می توان با واترمارک های دیجیتالی جاسازی کرد که برای انسان غیرقابل درک است اما به راحتی توسط نرم افزار قابل تشخیص است و از تأیید محتوا اطمینان حاصل می کند.
- چارچوبهای نظارتی: دولتها در سرتاسر جهان در حال بررسی مقررات سختگیرانه هستند و ایجاد یا توزیع مخرب Deepfakes را یک جرم قابل مجازات میدانند.
- ابتکارات آموزشی: کمپینهای آگاهی عمومی میتوانند افراد را برای ارزیابی انتقادی محتوای دیجیتال، پرورش جمعیت آگاه و آگاه، توانمند کنند.
- ویژگی های بیومتریک: اثر انگشت و عنبیه که به طور خاص برای هر فرد ایجاد می شود و یکسان نیست، یکی از بهترین راه ها برای شناسایی افراد است. این ویژگی ها می توانند برای شناسایی محتوای جعلی نیز مفید باشند.

مسیرهای آینده
دیپ فیک ها، نمادی از چشم انداز فناوری گسترده تر، مظهر ماهیت دو لبه نوآوری هستند. همانطور که ما در این چهارراه ایستاده ایم، مسیر پیش رو به تلاش های مشترک بستگی دارد. فنآوران، سیاستگذاران، مربیان و عموم مردم باید متحد شوند و اطمینان حاصل کنند که از پتانسیل عظیم Deepfakes استفاده میشود، در حالی که خطرات آن به طور عاقلانه محدود میشود.
آینده Deepfake هنوز یک فناوری نوپا است و قول های زیادی در مورد آن داده شده است. بیشتر افراد جامعه هنوز اطلاعات زیادی در مورد این فناوری ندارند و قابلیت های بالقوه آن هنوز به طور کامل کشف نشده است. با این حال هنوز زمان زیادی برای درک کامل اثرات مثبت و منفی این فناوری در زمینه های مختلف باقی مانده است و در آینده روش های بیشتری برای مقابله با سوء استفاده های غیرقانونی از این فناوری و کنترل بیشتر آن توسعه خواهد یافت. طبیعتاً این فناوری نوظهور نیز مانند سایر فناوری ها دارای مزایا و معایب خود است. این فناوری از یک سو میتواند زمینه های آسیبهای اخلاقی، معنوی و معنوی جبرانناپذیری به چهرههای برجسته وارد کند، اما از سوی دیگر میتواند به عنوان ابزاری مفید در زمینه ایجاد پرتره دیجیتال، فیلمسازی، انیمیشن و موارد مشابه مورد استفاده قرار گیرد.