ویدئو‌ها یا تصاویر جعل عمیق (دیپ فیک) با استفاده از هوش مصنوعی ساخته می‌شوند و گاهی آنقدر واقعی به نظر می‌رسند که تشخیص آنها از واقعیت دشوار است. این فناوری بار‌ها مشکل‌ساز شده و از آن برای انتشار اخبار و اطلاعات نادرست و فریب مردم استفاده کرده‌اند. با پیشرفت فناوری، تشخیص محتوای جعلی هر روز دشوارتر می‌شود و کارشناسان حوزه فناوری در تلاش هستند تا راه‌هایی برای شناسایی و پیشگیری از آسیب‌های جعل عمیق پیدا کنند.

به تازگی عکسی جعلی از یک زن مسن در شبکه اجتماعی فیسبوک منتشر شده است که مقابل کیک تولد ۱۲۲ سالگی خود نشسته و شرح عکس چنین است: «من از پنج سالگی پختن کیک را آغاز کردم و می‌خواهم همچنان آن را ادامه دهم.» این عکس بیش از ۴۰ هزار بار به اشتراک گذاشته شده، ۲۰ هزار کامنت گرفته و ۱۰۰ هزار واکنش دریافت کرده است. عکس مورد اشاره بی‌شک جعلی است و با هوش مصنوعی ساخته شده، یکی از شمع‌ها روی کیک نیست و در هوا شناور است و حباب‌های بی‌شکل و عجیبی در پس‌زمینه عکس دیده می‌شود. عواقب منفیِ فراگیر شدن محتوایی مانند عکس این کیک تولد، بسیار کم است، زیرا هر چه هوش مصنوعی مولد بهتر و بهتر می‌شود، به دوران پایان تشخیص محتوا‌های جعلی بیشتر نزدیک می‌شویم. انگار در حال مسابقه دادن با زمان هستیم.

چالش تشخیص محتوای جعلی از واقعی

رشد سریع هوش مصنوعی و کمبود راه‌حل‌های موجود

آیا سرانجام می‌توانیم راه‌هایی جدید و قطعی برای تشخیص محتوا‌های جعلی از موارد واقعی پیدا کنیم؟ مایک اسپیرز (Mike Speirs) از مؤسسه مشاوره هوش مصنوعی «فَکالتی‌ای آی» که در زمینه نظارت بر اطلاعات نادرست و جعلی فعالیت دارد می‌گوید: «مدل‌های هوش مصنوعی با چنان سرعتی در حال توسعه هستند که از نظر فنی باورنکردنی و هشداردهنده است و بنابراین ما برای شناسایی آنها زمان کم می‌آوریم. برای تشخیص تصاویر جعلی انواع مختلفی از تکنیک‌های دستی وجود دارد برای مثال، غلط‌های املایی در متن، پوست ناهمگون، چشم‌های غیرطبیعی و یا دست‌ها نمونه‌های خوبی برای تشخیص عکس و محتوا‌های ساخته‌شده با هوش مصنوعی هستند؛ اما حتی چنین موارد واضحی هم زمان‌بر هستند، چون مدل‌ها هر روز بهتر می‌شوند.»

کلیک کنید خواندنی است:   صادرات برق ایران چقدر است؟

به‌روزرسانی نرم‌افزار‌های پیشرو

مولد تصویر دال-ای (Dall-E) متعلق به اُپن‌ای آی از سال ۲۰۲۱ سه نسخه منتشر کرده است که هر کدام نسبت به نسخه قبلی قابلیت‌های بیشتری دارند و در کنار آن مدل رایگان و منبع باز استیبل دیفیوژن (Stable Diffusion) نیز نسخه سوم خود را منتشر کرده است.

نسخه ششم میدجِرنی (Midjourney) و مدل جمنای گوگل نیز به این موج از فناوری پیوسته‌اند. هرچه این فناوری قوی‌تر می‌شود استفاده از آن هم آسان‌تر می‌شود. جدیدترین نسخه دال-ای در چت جی‌پی‌تی و بینگ نیز تعبیه شده و در این میان گوگل ابزار‌های خود را به رایگان در اختیار کاربران قرار می‌دهد.

تکاپوی غول‌های فناوری برای تشخیص محتوای جعلی

سیل تولید رسانه‌های جدید، واکنش شرکت‌های فناوری را برانگیخته است و غول‌های فناوری، چون بی‌بی‌سی، گوگل، مایکروسافت و سونی در تلاش هستند که برای تأیید منشأ و اصالت محتوا ائتلاف کنند و استاندارد‌هایی را برای برچسب‌گذاری محتوا‌های تولیدشده با هوش مصنوعی تعیین کنند.

در همین راستا، اُپن‌ای آی در فوریه گذشته اعلام کرد که چنین موازینی را برای دال-ای اتخاذ خواهد کرد. اکنون، تصاویر تولید شده توسط این ابزار دارای یک برچسب قابل مشاهده و واترمارک قابل خواندن توسط ماشین است. متا نیز برای افزودن برچسب‌های خود به محتوای تولیدشده توسط هوش مصنوعی دست‌به‌کار شده است و می‌گوید که پست‌هایی را که برچسب ندارند حذف خواهد کرد. چنین سیاست‌هایی ممکن است به مقابله با فراگیرشدن اطلاعات نادرست یا شوخی‌های اقلیتی در اینترنت کمک کند.

کلیک کنید خواندنی است:   وقتی نگاه اجتماعی زندگی افراد دارای اضافه وزن را تحت تأثیر قرار می‌دهد

اسپیرز می‌گوید: «چنین اقداماتی می‌تواند امنیت کاذب ایجاد کند و اگر مردم به دیدن چنین برچسب‌هایی عادت کنند، شاید به طور ناخودآگاه دیگر به آنهایی که برچسب ندارند اعتماد نکنند.»

آیا برچسب‌گذاری و واترمارک بازدارنده است؟

بنابراین برچسب‌گذاری می‌تواند مشکل‌ساز شود، چون یک روند جهانی نیست. شرکت‌های بزرگی مانند اُپن‌ای آی شاید با برچسب‌گذاری آثار خود موافقت کنند، اما استارت‌آپ‌هایی، چون میدجِرنی چنین ظرفیت یا حتی فرصتی ندارند. از طرفی، برچسب‌گذاری یا واترمارک گذاشتن برای پروژه‌های منبعِ باز مانند استیبل دیفیوژن غیرممکن است، زیرا این امکان را به شما می‌دهد که فناوری را در اختیار بگیرید و محتوای خودتان را بسازید.

هنری پارکر، کارشناس بررسی واقعیت منطقی، می‌گوید: «دیدن واترمارک لزوماً آن تأثیری که ما فکرش را می‌کنیم ندارد. اگر به کسی از قبل بگویید که قرار است یک ویدیوی جعل عمیق را تماشا کند، روان‌شناسی اجتماعی آن ویدئو به قدری قدرتمند است که طرف شک می‌کند شاید واقعی باشد! بنابراین تنها کاری که می‌توانید انجام دهید این است که ببینید چگونه می‌توانیم مدت زمان گردش این محتوا در فضای مجازی را کاهش دهیم.»

برای این کار لازم است محتوای تولیدشده توسط هوش مصنوعی پیدا و حذف شود، اما از نظر پارکر این کار سختی است. او می‌گوید: «ما پنج سال است که در این زمینه تلاش کرده‌ایم و تازه به‌دقت ۷۰ درصدی رسیدیم.» در کوتاه‌مدت، رقابت بین «تشخیص» و «ایجاد» خواهد بود و حتی تولیدکنندگان چنین محتواهایی، که بسیاری از آنها نیت بدی ندارند، می‌خواهند نرم‌افزار‌های تشخیص جعل عمیق را شکست دهند.

به گفته پارکر، راه حل مقابله با اطلاعات نادرست، نظارت بر گفتگو‌هایی است که در سراسر اینترنت اتفاق می‌افتد تا عوامل بدی که قصد انتشار اطلاعات نادرست را دارند، شناسایی شوند. این را می‌توان با زیر نظر گرفتن حساب‌های مشکوک توسط ناظران دولتی انجام داد. راه‌اندازی پویش‌های اجتماعی با مشارکت طرفداران یا مخالفان این فناوری نیز می‌تواند چالش مفیدی باشد.

کلیک کنید خواندنی است:   پرونده بابک زنجانی در سال ۱۴۰۲ به سرانجام رسید

دلگرمی‌های واقعی برای آینده

گروهی دیگر، اما خوش‌بین‌ترند. بن کُلمن (Ben Colman)، مدیرعامل استارت‌آپ تشخیص تصویر ریلیتی دیفِندر (Reality Defender)، شرکتی که از فناوری پیشرفته برای تشخیص تصاویر جعلی استفاده می‌کند، همیشه نشانه‌هایی برای شناسایی یک تصویر یا ویدیوی جعلی وجود دارد. این علائم می‌تواند هر چیزی باشد، از فیلتر‌های قوی که تصویر را بیش‌ازحد صاف نشان می‌دهد تا جزئیات طبیعی و واقعی که در ویدیو‌های جعلی وجود ندارد، برای مثال فردی که دچار هیجان می‌شود به دلیل پمپاژ خون بیشتر، چهر‌ه‌اش گل می‌اندازد که اگر ویدیو واقعی باشد چنین چیزی را می‌توان در آن دید. کلمن نتیجه می‌گوید: «خیلی چیز‌ها می‌توانند در جهت جعل و دروغ پیش بروند، اما سمت‌وسوی حقیقت تغییر نمی‌کند.»

فناوری تنها راه حل مشکل اخبار جعلی نیست. اگر عده‌ای از مردم باور می‌کنند که عکس یک زن ۱۲۲ ساله و کیک تولدی که خودش پخته واقعیت دارد، فریب دادن آنها برای چیز‌های بدتر و جدی‌تر کار سختی نخواهد بود. با این همه، هنوز هم می‌توان از فناوری برای مقابله با این مشکل استفاده کرد. تازه در آغاز راه هستیم.

منبع: آنا



Source link

سهام:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *