در ماه های گذشته، شاهد ویدئوهایی از افراد مشهور جهان همچون سیاستمداران و هنرمندان بودیم که در آن مطالبی غالبا توهین آمیز توسط این افراد عنوان می شد؛ اما پس از مدتی آن ها ویدئو را تکذیب کرده و ادعا می کردند شخصی دیگر و شبیه به آن ها این ویدئو را ضبط نموده است.
به نظر شما این ادعاها عجیب نیست؟ در پاسخ باید بگویم خیر؛ ادعا این افراد کاملا واقعی است. پس موضوع این ویدئوها چیست؟ در ادامه این مقاله با ما همراه باشید تا با هم از این ماجرا سر در آوریم.
یکی از این ویدئوهای جنجال برانگیز، حاوی سخنان رئیس جمهور سابق ایالات متحده آمریکا، آقای باراک حسین اوباما در رابطه با آقای دونالد ترامپ، رئیس جمهور فعلی این کشور است. در ویدئو یاد شده آقای اوباما، جانشین خود را فردی غیر منطقی و حقیر مورد خطاب قرار می دهد. این فیلم بازخوردهای بی شماری در فضای مجازی بر جای گذاشت و اذهان عمومی را دچار اضطراب نمود. نکته جالب اینجاست که اوباما این تصاویر را غیر واقعی خوانده و در رابطه با آن چنین می گوید:
افراد قادر هستند من را تکثیر نموده و حتی سخن هایم را تغییر دهند. این کار به حدی دقیق و اصولی انجام می شود که گویی نسخه انتشار یافته، به واقع خود من هستم و آن صحبت ها از زبان من گفته می شود؛ در صورتیکه همه این ها دروغی بیش نیست. اگر به مرحله ای برسیم که قادر به تشخیص حقیقت و دروغ نباشیم و مرز میان این دو نا مشخص گردد، پایه های دموکراسی ما که بر اساس حقیقت بنا شده، به لرزه خواهد افتاد.
در این راستا طی هفته گذشته، قانون گذاران کنگره در رابطه با این پدیده نوظهور، آسیب ها و خطرات آن گرد هم آمده و برای اولین بار در مورد آن گفتگو نمودند.
جعل انسان ها به واسطه تصاویر
تکنیک جدیدی بر مبنای هوش مصنوعی موضوع این روزهای دنیای تکنولوژی است که به واسطه آن می توان تصاویر و ویدئوهای دروغین و در عین حال واقع گرایانه درست نمود. دیپ فیک Deepfake می گویند؛ موضوعی که اخیرا مردم جهان را دچار وحشت و نگرانی کرده است. این فناوری در محتوای ویدئوها و تصاویر تغییرات دلخواه ایجاد کرده و در نهایت تصویری متفاوت از نمونه اولیه ارائه می دهد.
ساز و کار دیپ فیک مبتنی بر یادگیری ماشین است. به این صورت که محتوای مورد نظر را به آن می دهید تا به بررسی زیر جزئیاتش بپردازد و پس از یادگیری عمیق، محتوایی جعلی و فیک تولید می کند. از این رو آن را جعل عمیق نامیده اند.
جالب است بدانید جعل عمیق به صورت گسترده توسط کارگردانان فیلم ها مورد استفاده قرار می گیرد. حتما به یاد دارید پاول واکر، ستاره مجموعه فیلم "سریع و خشن"، پیش از تکمیل مراحل فیلم برداری قسمت 7 این مجموعه، در حادثه رانندگی جان خود را از دست داد. اما تکنیک دیپ فیک، امکان بازسازی چهره واکر را به کارگردانان این فیلم داد. به همین جهت، همچنان شاهد نقش آفرینی وی در سری فیلم های سریع و خش هستیم.
جعل عمیق با هدف تولید محتوایی غیر واقعی و در عین حال باورپذیر از تصاویر و اصوات ساخته شد. اما متاسفانه استفاده نادرست از آن در وقایع اخیر موجب ایجاد موجی از نگرانی در جوامع شده است. در سال های گذشته برنامه های دیگری برای ویرایش و یا تولید محتوا طراحی شده اند که از جمله آن ها می توان فتوشاپ را نام برد. اما این نرم افزار تنها قادر است به جعل تصاویر بپردازد، در صورتی که دیپ فیک موضوعی خطرناکتر از جعل عکس هاست.
تا چند سال پیش افراد تصوری از ایجاد تغییر در محتوای یک ویدئو نداشتند و این کار را امری محال و به دور از واقعیت می دانستند اما پیشرفت های مکرر هوش مصنوعی در این سال ها به قدری زیاد بوده که دیگر ساخت ویدئوهای دروغین با محتوایی واقع گرایانه امری ساده و آسان به نظر می رسد. این محتواها به قدری واقعی جلوه می کنند که امکان تشخیص مرز میان حقیقت و دروغ را با مشکل مواجه نموده اند.
دیگر نکته ای که ذکر آن مهم به نظر می رسد، نیاز نداشتن فناوری دیپ فیک به دخالت مستقیم انسان است. این تکنولوژی بر اساس یادگیری ماشین و هوش مصنوعی کار می کند، در نتیجه هر کسی به راحتی قادر است ویدئوی دروغینِ واقع گرایانه مورد نظرش را بسازد. ویدئویی که در آن شخص هدف در حال انجام کاری نامتعارف و یا صحبت کردن در رابطه با موضوعی نامناسب است. بدین صورت وجه اجتماعی فرد دچار آسیب های جبران ناپذیری خواهد شد.
روش های ساخت دیپ فیک
ساخت یک ویدئو به روش دیپ فیک راهکارهای متعددی دارد اما ویژگی مشترک همه آن ها، نیاز به حجم داده های صوتی و تصویری زیاد است تا آن ها را به مدل های یادگیری ماشین معرفی نموده و از این طریق بتوانیم ویدئوی جعلی ساخت. به عبارت دیگر هر چه مقدار داده ورودی به الگوریتم های یادگیری بیشتر باشد، محتوای جعلی ساخته شده به واقعیت نزدیک تر خواهد بود.
برنامه های متعددی با روش جعل عمیق اقدام به تولید محتوای غیر واقعی می کنند که اسنپ چت یکی از آن هاست. این اپلیکیشن جهت اعمال فیلترهای مبتنی بر چهره از تکنیک مورد بحث استفاده می کند. FakeApp نام اپلیکیشن دیگری است که توسط برنامه نویسی ناشناخته توسعه داده شده و قادر است تصویر کاربران را با تصویر دیگران جا به جا کند و محتوایی دروغی اما واقع گرایانه تولید نماید. این عملیات به نحوی انجام می گردد که دستکاری ویدئو قابل تشخیص نباشد.
برنامه های نام برده نشان می دهد استفاده از تکنیک دیپ فیک نیاز به تبحر و مهارت بالا در علوم رایانه ای نیست و هر کسی که در حد ابتدایی دانش کامپیوتری داشته باشد قادر است از فناوری استفاده نماید.
ویدنوهای معروف دیپ فیک
همانطور که در ابتدا مقاله گفتیم، ویدئویی سخنرانی باراک اوباما در رابطه با دونالد ترامپ، یکی از اولین ویدئوهای ساخته شده با فناوری Deepfake بوده است، اما موارد دیگری از این دست ویدئوها در فضای اینترنت پخش شده است که برخی از آن ها در این مقاله معرفی می کنیم:
1. مارک زاکربرگ، مدیر عامل شبکه اجتماعی فیسبوک در ویدئویی با صدایی همچون ربات می گوید: "هر کسی که داده ها را کنترل می کند، آینده را کنترل می کند."
2. جان اسنو، یکی از شخصیت های مهم سریال "بازی تاج و تخت" در ویدئویی با پس زمینه صحنه ای از فیلم، بابت ایرادات و اشتباهاتی که در فصل 8 این سریال رخ داده است، از طرفداران عذرخواهی می کند. وی می گوید فیلم نامه فصل 8 سریال تنها در 6 روز نوشته شده است. او از مردم می خواهد برای فراموش کردن این فصل، فیلم نامه اش را در آتش بیاندازند.
3. در ویدئویی دیگر، گفتگویی از بیل هیلدر مشاهده می کنیم، که طی آن چهره هیلدر به چهره آرنولد شوارتزینگر تغییر می کند. این وقایع به حدی طبیعی رخ می دهد که احساس می کنید، معجزه ای صورت گرفته و آن دو با یکدیگر جا یه جا شده اند.
آینده بشر در دستان دیپ فیک
همه ما می دانیم پیشرفت فناوری و دانش بشر در راستای ایجاد رفاه برای جامعه بسیار مفید است اما متاسفانه جنبه های مخرب و آسیب زننده این پیشرفت، در سال های اخیر مشکلات بسیاری را برای افراد پدید آورده است. دیپ فیک به عنوان فناوری تغییر محتوای ویدئویی یکی از خطرناکترین پیشرفت های هوش مصنوعی به شمار می آید که قادر است اتفاقات ناگواری در زندگی ایجاد کند.
یکی از بحث برانگیزترین زمینه هایی که دیپ فیک به وجود آورده، تولید محتوای جعلی از فیلم های غیراخلاقی است. سال 2017 ویدئویی دروغین و حاوی محتوای غیراخلاقی از بازیگری به نام Gal Gadot در وب سایت ردیت، انتشار یافت. این ویدئو با فناوری دیپ فیک به نحوی تولید شده که در نگاه اول جعلی بودن آن قابل تشخیص نیست.
متاسفانه تنها افراد مشهور جامعه در معرض چنین مشکلاتی نیستند و هر فردی که عکس و یا فیلمی از خود در فضای اینترنت و شبکه های اجتماعی منتشر کرده باشد، از چنین آسیب هایی در امان نخواهد بود.
این موضوع راهی برای کسب درآمد عده ای سودجو شده به واسطه انجمن های اینترنتی شده است. برخی حاضرند بابت ساخت ویدئوهای غیراخلاقی از شخص مورد نظر، مبالغ بالایی به عنوان دستمزد پرداخت کنند. در این راستا موتورهای جستجویی ایجاد شده که عکس فرد را دریافت کرده و با جستجو در فیلم های بزرگسالان، بازیگری شبیه به چهره فرد را یافته و فیلم های او را برای ساخت ویدئوهای جعلی با چهره شخص هدف معرفی می کند. مشکل اصلی نبود هیچگونه قانونی جهت مبارزه با این گونه افرادی است.
نگرانی دیگری که در حوزه ویدئوهای دیپ فیک وجود دارد، محتوایی است که می تواند امنیت یک کشور را دچار تزلزل کند. تصور کنید انتخابات مهمی در کشور پیش رو است. افراد سودجو می توانند با ساخت ویدئوهای دروغین بر نتایج این انتخابات تاثیر به سزایی بگذارند.
باب چرنی و همکارش دنیل سیترون، مشاوران حقوقی هستند که بر روی آثار مخرب تکنیک جعل عمیق فعالیت می کنند. آن ها معتقدند به کمک این فناوری می توان ارتش یک کشور را در حال تیراندازی به سوی اهالی یک شهر به تصویر کشید و جنجال های بسیاری به راه انداخت.
شبکه های اجتماعی به عنوان انتقال دهنده اصلی اخبار در تمام دنیا شناخته شده اند. از این جهت می توانند با جلوگیری از پخش چنین ویدئوهایی مانع از پیشرفت اهداف غیر انسانی سازندگان گردند. اما متاسفانه باید بگوییم فیسبوک به عنوان یکی از بزرگ ترین شبکه های دنیا، در رابطه با این تصاویر هیچ واکنشی نشان نداده و حتی از آن ها برای افزایش بازدید کننده و در نتیجه کسب درآمد استفاده می کند. گسترش چنین وقایعی علاوه بر شایعه افکنی و تزریق اطلاعات نادرست به جامعه، موجب از بین رفتن اعتماد میان مردم شده و پذیرش واقعیت را بسیار سخت و دور از دسترس می سازد. این ویدئوها جامعه را به مجموعه ای از افراد بیمار و شکاک تبدیل می کند که نه تنها حرف هیچ یک از سیاستمداران را باور نمی کنند بلکه همواره نگران سوء استفاده از تصاویر خود هستند و آرامش را از جامعه می رباید.
در چنین جامعه ای (جهان)، مرز میان حقیقت و دروغ از میان برداشته شده و تمدن بشر نابود می شود.
منبع:
faratechdp.com