شنیدن کی بُوَد مانند دیدن؟! در گذشته تصاویر فتوشاپی تا حدودی می توانست آبروی یک شخص را ببرد و حالا نوبت به فیلم های به اصطلاح فتوشاپی رسیده است! دیپ فیک به نوعی جدیدترین تکنولوژی در جهت ایجاد فیلم ها و تصاویر تقلبی است که تشخیص تقلبی بودن آنها در ابتدا می تواند بسیار سخت باشد!
مطلب مرتبط: معرفی اپلیکیشن گوشی و مسائل پیرامون آن
دیپ فیک چیست؟
هر ویدیو یا صوتی که تقلبی بوده و با اصل ماجرا تفاوت چندانی نداشته باشد دیپ فیک (deepfake) نام دارد و معنای لغوی آن تقلبی عمیق است! تقریبا دو سال پیش در سال 2017 نرم افزارهایی ارائه شدند که این امکان را به کاربران می داد تا صورت ها را در فیلم جابجا کنند و یا عکسی را به عنوان صورت روی یک بدن قرار دهند. در آن سال ها این کار بسیار واضح بود و کمتر کسی ممکن بود که فریب آن را بخورد.
اما حالا هوش مصنوعی و پردازش تصویر قدم را فراتر گذاشته و شما می توانید با استفاده عکس فرد یا حتی یک فیلم از او، کلا صحبت هایش را تغییر دهید و یا او را در وضعیتی قرار دهید که اصلا تا به حال نبوده است. تغییر دادن سخنرانی افراد مشهور و سیاسی و یا حتی دادن بیانیه یا حمایت تبلیغاتی این افراد فیلم هایی است که از افرادی همچون اوباما، ترامپ، کیم کاردیشان، زاکربرگ و … منتشر شده و در ابتدا در شبکه های اجتماعی به خصوص اینستاگرام سر و صدای زیادی بلند کرد.
بعد از مقاصد سیاسی و تبلیغاتی، مورد بسیار بد بعدی، مسائل هویتی و آبرویی افراد هست. متاسفانه فیلم هایی که برای افراد مشهور ساخته می شوند و صورت آنها روی بدن های برهنه قرار می گیرند و باعث آبروریزی زیادی برای صاحب صورت می شوند!
مطلب مرتبط: تغییر چهره با توجه به اسمایلی ها با فیس اپ
دیپ فیک چگونه ایجاد می شود؟
دیدن بسیار عمیق تر از خواندن و نوشتن در ذهن و جان انسان ها می نشیند. دیدن مسائل آنها را برایتان قابل درک تر و پذیرش آنها را بیشتر می سازد. تکنولوژی خوابیده پشت دیپ فیک نیز از همین موضوع بهره می برد!
دو سیستم Machine Learning وجود دارند. یکی شروع به تولید تصاویر تقلبی می کند و دیگری آن را پردازش می کند. سیستم دوم نقش تشخیص میزان نزدیکی تصویر تقلبی به تصویر اصل را دارد. زمانی که او نتواند تقلبی بودن را تشخیص دهد، زمانی است که یک ویدیوی دیپ فیک ایجاد شده است و احتمالا یک کاربر انسانی هم نتواند آن را به راحتی تشخیص دهد!
نحوه تشخیص دیپ فیک
اگر تصویر ایجاد شده به صورت غیرحرفه ای باشد، به راحتی می توانید تقلبی بودن آن را تشخیص دهید.
یک مرحله بالاتر نیاز به دقت در سایه ها و چشمان گوینده دارد. معمولا در دیپ فیک، کمی کارهای معمولی متفاوت می شوند. مثلا پلک زدن افراد که ممکن است بسیار طولانی شوند، اصلا رخ ندهد، خیلی سریع شود و یا یک نظرم عجیبی پیدا کند!
گرچه این موضوع شبیه به بازی به نظر می آید، اما این سیستم Machine Learning روز به روز هوشمندتر می شود و اگر نتوان تصاویر تقلبی را از واقعی تمیز داد، پایان کار سیستم های خبری و اطلاع رسانی خواهد بود. دیگر به هیچی نمی توان اعتماد کرد و معلوم نیست چه بلایی سر پایگاه های خبری خواهد آمد.
چاره چیست؟
شاید نتوان جلوی این گونه مسائل و دیپ فیک را گرفت، اما می توانیم خودمان را اصلاح کنیم. هر فیلمی را باور و بازنشر نکنیم. به عقلمان بیشتر از چشمانمان اعتماد کنیم. درحال حاضر این سیستم در قالب نرم افزار و بعضا به صورت رایگان در اختیار همگان قرار دارد و ممکن است فیلمی از خود شما هم ساخته شود. پس نسازیم و به دیگران هم اطلاع رسانی کنیم تا با افزایش آگاهی دیگران مشکلی برای خودمان هم پیش نیاید.
دیدگاهتان را بنویسید