thinclient

وبلاگی در حوزه تین کلاینت

thinclient

وبلاگی در حوزه تین کلاینت

مرز باریک میان تکنولوژی دیپ فیک و واقعیت

در طول چند دهه گذشته، هوش مصنوعی به سرعت در حال توسعه بوده است.این تکنولوژی برنامه‌­هایی در زمینه­‌های مختلف و برای اهداف بی­شمار ارائه داده ­است که باعث بهبود کیفیت و کارایی صنایع مختلف می شود. اما همه محصولات هوش مصنوعی تأثیر مثبتی بر جامعه ندارند؛ گاهی اوقات این فناوری­‌ها مورد سوء ­استفاده قرار می‌­گیرد. نمونه‌­ای از این فناوری به نام دیپ فیک (Deepfake) شناخته می­‌شود. با تکنولوژی دیپ فیک می­‌توانید چهره یک فرد را با چهره فرد دیگر، چه در یک تصویر یا چه در ویدیو، جایگزین کنید. قربانیان چنین اقداماتی اغلب افراد مشهور، سلبریتی­‌ها و سیاستمداران هستند. این مقاله توضیح می­‌دهد که این فناوری بر چه اساسی به وجود آمده  ­است و چه روش‌­هایی برای تشخیص چهره وجود دارد.

تکنولوژی دیپ فیک چیست؟

کلمه “Deepfake” ترکیبی از دو کلمه “عمیق” و “جعل” است. دیپ در اینجا به عنوان یادگیری عمیق شناخته می­‌شود. فناوری دیپ فیک در رسانه­‌ها برای ایجاد محتوای جعلی، جایگزین یا ترکیب چهره ها، تغییر گفتار و دستکاری احساسات استفاده می‌­شود. اولین قدم ها به سمت این فناوری در دهه 90 توسط موسسات دانشگاهی انجام شد و بعدها مخاطبان بیشتری به آن روی آورده­اند. اگرچه دیپ فیک در صدر اخبار تکنولوژی نیست، اما با این وجود توانسته سر و صدای زیادی در فضای مجازی و رسانه­ ها ایجاد کند.

دیپ فیک چگونه کار می­‌کند؟

استراتژی‌­های بسیاری برای ساخت نرم افزار تکنولوژی دیپ فیک با استفاده از الگوریتم‌­های یادگیری ماشین وجود دارد. به بیانی ساده، این الگوریتم­‌ها می‌­توانند بر اساس داده‌­های ورودی محتوا تولید کنند. البته، ایجاد یک چهره جدید در این برنامه یا جایگزینی بخشی از چهره باید آموزش داده شود. این برنامه با استفاده از داده‌­های بسیار زیاد، داده­‌هایی جدید برای خود می‌­سازد. اساسا این داده­‌ها بر اساس رمزگذارهای خودکار و گاهی اوقات بر روی شبکه­ های مولد تخاصمی (GAN) هستند. حال بیایید ببینیم که این روش‌­ها چگونه کار می‌­کنند؟

رمزگذارهای خودکار:

رمزگذارهای خودکار خانواده­ای از شبکه­‌های عصبی تحت نظارت خود هستند. آن­‌ها فقط مختص داده­‌ها می­‌باشند، به این معنی که رمزگذاری خودکار می­‌تواند داده­‌ها را مشابه آنچه که آموزش دیده‌­اند، فشرده کنند. علاوه بر این، خروجی رمزگذار خودکار با ورودی آن یکسان نخواهد بود. رمزگذار خودکار از 3 جزء تشکیل شده‌­است: رمزگذار، کد و رمزگشا. رمزگذار داده‌­های ورودی را فشرده می­‌کند و پس از این که رمزگشا کد ورودی را بازسازی کرد، کد تولید می‌­شود. انواع مختلفی از رمزگذار خودکار وجود دارد: رمزگذار خودکار حذف نویز، رمزگذار خودکار عمیق، رمزگذار خودکار کانولوشن و غیره.

شبکه­ های مولد تخاصمی (GAN):

گان رویکردی برای مدل‌سازی مولد از داده‌­های ورودی است؛ یعنی از داده‌­های ورودی به منظور تولید داده­‌های جدید استفاده می­‌شود. این سیستم توسط دو شبکه عصبی متمایز آموزش داده می­‌شود: یک مولد و یک تفکیک کننده. مولد الگوهای موجود در مجموعه داده­‌های ورودی را کشف کرده و آن­‌ها را بازتولید کند.
سپس داده­‌های تولید شده همراه با داده‌­های واقعی برای ارزیابی به تفکیک کننده ارسال می­‌شود. در اینجا هدف مولد فریب دادن تفکیک کننده است. این سیستم تا جایی ادامه می‌­یابد که تفکیک کننده دیگر داده‌­های تولید شده را با داده‌­های واقعی اشتباه نگیرد. هرچه تشخیص داده­‌های تولید شده از داده‌­های واقعی سخت­تر باشد، کارایی آن بهتر خواهد بود. آموزش GAN ها به مراتب سخت تر است و به منابع بیشتری نیاز دارد. از آن­ها بیشتر برای تولید عکس به جای فیلم استفاده می‌­شود.
آیا دیپ فیک خطرناک است؟
دیپ فیک یکی از خطرناک ترین محصولات هوش مصنوعی شناخته می­‌شود. بیشتر برنامه­ های آن در دنیای واقعی برای اهداف دزدی یا کلاهبرداری استفاده می­شوند. یکی از اولین موارد کلاهبرداری تکنولوژی دیپ فیک در بریتانیا اتفاق افتاد. کلاهبرداران با مدیر عامل یک شرکت انرژی تماس گرفتند و با جعل صدای رئیس آلمانی او، به او دستور دادند 220000 یورو به یک حساب بانکی منتقل کند. ممکن است نتیجه نهایی دیپ فیک از واقعیت قابل تشخیص نباشد و همین ویژگی آن را به یک سلاح عالی برای کلاهبرداران تبدیل
می­‌کند.
تاثیر دیپ فیک بر جامعه
اگر این تکنولوژی به دست افراد نادرست برسد می­تواند منجر به هرج و مرج شود. از آنجا که بخش بزرگی از جامعه ما از رهبران، سلبریتی­‌ها و اینفلوئنسرها ساخته شده ­است، اطلاعات نادرست و جعلی می­‌تواند نظر مردم را راجع به آن­ها تغییر دهد. این موضوع حتی چندین رئیس جمهور ایالات متحده را نیز درگیر کرد. اخبار جعلی مربوط به رهبران سیاسی می­‌تواند اعتبار کشور را تضعیف کند و منجر به از دست دادن اعتماد مردم به آن‌­ها شود.
آیا تکنولوژی دیپ فیک قانونی است؟
از آنجایی که دیپ فیک در چند سال اخیر شروع به گسترش کرد، قوانین مربوط به کاربرد آن هنوز با این فناوری مطابقت نکرده ­است. در بسیاری از کشورها به هیچ ­وجه مقرراتی درباره استفاده از آن وجود ندارد. یکی از کشورهایی که در آن قانون استفاده از دیپ فیک وجود دارد، چین است. اداره فضای مجازی چین اعلام کرد که هرگونه اخبار جعلی که با استفاده از تکنولوژی دیپ فیک منتشر می­‌شود غیرقانونی است. در ایالات متحده، اگر دیپ فیک بر علیه نامزدهای شرکت کننده در مناصب دولتی ساخته شود، جرم تلقی می­‌شود.
دیپ فیک چگونه استفاده می­‌شود؟
گسترش دیپ فیک با فیلم‌­های جعلی سلبریتی‌ها آغاز شد. بسیاری از سلبریتی­‌های زن قربانی این تکنولوژی جدید شده‌­اند. از جمله جنیفر لارنس، اما واتسون و گال گدوت. این موضوع زنان سیاستمدار کشورهای مختلف را نیز تحت تاثیر قرار داد، مانند: میشل اوباما، ایوانکا ترامپ و کیت میدلتون.
گروه بعدی از افرادی که تحت تأثیر دیپ فیک قرار می‌­گیرند، سیاستمداران هستند. ویدئوهایی از اوباما در حال توهین به ترامپ وجود منتشر شد. در ویدئویی دیگر، صحبت­‌های نانسی پلوسی طوری درست شد تا حضار باور کنند که او مست بوده­است. در ویدئوی جعلی دیگر، ترامپ کشور بلژیک را به دلیل عضویتش در توافقنامه آب و هوایی پاریس مسخره می­‌کند. لازم به ذکر است که موارد استفاده قانونی از دیپ فیک نیز وجود دارد. درواقع، این عقیده وجود دارد که تکنولوژی دیپ فیک آینده تولید محتوا است.  کانال MBN کره جنوبی با استفاده از دیپ فیک یک مجری جایگزین برای اخبار خود ساخت!
آیا دیپ فیک‌ها همیشه مخرب هستند؟
اصلا. بسیاری از آن‌ها سرگرم کننده و برخی مفید هستند. دیپ‌ فیک‌های شبیه‌سازی صدا می‌توانند صدای کسانی را که از دست داده اند، بازیابی کنند. ویدئوهای دیپ فیک می توانند گالری ها و موزه ها را زنده کنند. در فلوریدا، موزه دالی یک ویدئو دیپ فیک این نقاش سوررئالیست را ارائه می دهد که هنر خود را معرفی کرده است و با بازدیدکنندگان سلفی می‌گیرد دارد. از این تکنولوژی می توان برای دوبله فیلم های خارجی استفاده کرد. و جالب تر از آن، زنده کردن بازیگران قدیمی نیز با دیپ فیک انجام می شود. برای مثال، جیمز دین قرار است در فیلم جنگی Finding Jack بازی کند!
چگونه می­توان دیپ فیک را تشخیص داد؟
فناوری هایی که دیپ فیک را تشخیص می­دهند نیز بر اساس هوش مصنوعی و با استفاده از همان الگوریتم­ هایی که برای ساخت دیپ فیک استفاده می‌­شوند، ساخته شده ­اند.
آن­‌ها علائمی را تشخیص می­‌دهند که در عکس‌­ها یا فیلم­‌های واقعی وجود ندارند. در ابتدای کار، پلک زدن غیرواقعی یا پلک نزدن نشانه خوبی از دیپ فیک بود.
اما با گذشت زمان، سیستم‌­ها یاد گرفته‌­اند که پلک زدن جعلی را نیز بسازند. علائم تشخیص تکنولوژی دیپ فیک عبارتند از:
رنگ غیر واقعی پوست یا تغییر رنگ پوست
حرکات تند و سریع
همگام سازی ضعیف صحبت با حرکت لب
چهره‌ فرد مبهم‌تر از تصویر پس‌زمینه است.
پیکسل‌‎­های اضافی در قاب
نتیجه گیری
تکنولوژی دیپ فیک یک فناوری امیدوارکننده است. بشر در حال شناخت است و هنوز کاربرد کامل آن را در جامعه پیدا نکرده ­است. مانند بسیاری از فناوری­‌ها، دیپ فیک نیز مزایا و معایب خود را دارد؛ یعنی می­‌تواند به دنیای ما آسیب برساند یا باعث بهبود آن شود. هنوز به زمان نیاز داریم تا بفهمیم چگونه از آن در صنایع مختلف نهایت استفاده را ببریم. با گذشت زمان راه­ های زیادی برای کنترل این تکنولوژی جدید به وجود خواهد آمد. هنر تکنولوژی را به چالش می کشد و تکنولوژی به هنر الهام می بخشد.