خود را برای انتخابات Deepfake 2024 آماده کنید
در سالهای اخیر برخی از چهرههای سیاسی دروغین ظاهر شدهاند، مانند یکی از رئیسجمهور اوکراین ولودیمیر زلنسکی که به سربازانش گفته است تسلیم شوند که این بود سال گذشته منتشر شد. هنگامی که این فناوری بیشتر پیشرفت کرد، که ممکن است با توجه به سرعت پیشرفت سایر اشکال هوش مصنوعی مولد زمان زیادی طول نکشد، ممکن است تعداد بیشتری از این نوع ویدیوها ظاهر شوند زیرا تولید آنها متقاعد کننده تر و آسان تر می شود.
این شامل شرکتهایی مانند Runway، Google، و Meta. هنگامی که یک شرکت نسخه با کیفیتی از یک ابزار هوش مصنوعی تولید کننده متن به ویدئو را منتشر می کند، ممکن است شاهد باشیم که بسیاری دیگر به سرعت نسخه های خود را منتشر می کنند، همانطور که پس از انتشار ChatGPT انجام دادیم. فرید میگوید که هیچکس نمیخواهد «پسر بماند»، بنابراین این شرکتها تمایل دارند هرچه زودتر آنچه را که دارند منتشر کنند.
فرید میگوید: «این که در دنیای فیزیکی، وقتی محصولاتی را عرضه میکنیم، دستورالعملهای واقعاً سختگیرانهای وجود دارد، همیشه مرا شگفتزده میکند. شما نمی توانید محصولی را منتشر کنید و امیدوار باشید که مشتری شما را نکشد. اما با نرمافزار، ما میگوییم: “این واقعاً کار نمیکند، اما بیایید ببینیم وقتی آن را برای میلیاردها نفر منتشر میکنیم چه اتفاقی میافتد.”
اگر شروع به دیدن کنیم. تعداد قابل توجهی از دیپ فیک ها که در طول انتخابات پخش می شوند، به راحتی می توان تصور کرد فردی مانند دونالد ترامپ این نوع محتوا را در رسانه های اجتماعی به اشتراک می گذارد و ادعا می کند که واقعی است. یک دروغ عمیق از رئیس جمهور بایدن که می گوید چیزی رد صلاحیت کننده ممکن است کمی قبل از انتخابات منتشر شود و بسیاری از مردم ممکن است هرگز متوجه نشوند که این موضوع توسط هوش مصنوعی تولید شده است. تحقیقات پیوسته نشان داده است، بالاخره این جعلی اخبار فراتر از اخبار واقعی منتشر می شود.
حتی اگر پیش از انتخابات 2024 که هنوز 18 ماه باقی مانده است، دیپ فیک ها در همه جا حاضر نشوند، صرف این واقعیت که می توان این نوع محتوا را ایجاد کرد می تواند بر انتخابات تأثیر بگذارد. دانستن اینکه تصاویر، صدا و ویدیوهای تقلبی را میتوان نسبتاً آسان ایجاد کرد، میتواند باعث شود مردم به مطالب قانونی که با آنها برخورد میکنند بیاعتماد شوند.
«از برخی جهات، دیپفیکها و هوش مصنوعی مولد حتی چنین نیست. آژدر میگوید که باید در انتخابات شرکت کرد تا آنها همچنان اختلال ایجاد کنند، زیرا اکنون چاه با این ایده مسموم شده است که هر چیزی ممکن است جعلی باشد. “اگر چیزی ناخوشایند از شما بیرون بیاید، این یک بهانه واقعا مفید است. شما می توانید آن را به عنوان جعلی رد کنید.”
پس برای این مشکل چه کاری می توان انجام داد؟ یک راه حل چیزی است به نام C2PA. این فناوری به صورت رمزنگاری هر محتوایی را که توسط یک دستگاه ایجاد میشود، مانند تلفن یا دوربین فیلمبرداری، و اسنادی که عکس را گرفتهاند، کجا و چه زمانی ثبت کرده است، امضا میکند. سپس امضای رمزنگاری در یک دفتر کل غیرقابل تغییر متمرکز نگهداری می شود. این به افرادی که ویدیوهای قانونی تولید میکنند اجازه میدهد نشان دهند که در واقع قانونی هستند.
برخی گزینههای دیگر شامل مواردی است که انگشت نگاری و واترمارک کردن تصاویر و ویدئوها. اثرانگشت شامل برداشتن آنچه «هش» نامیده میشود از محتوا است، که اساساً فقط رشتههایی از دادههای آن هستند، بنابراین میتوان بعداً مشروع بودن آن را تأیید کرد. همانطور که ممکن است انتظار داشته باشید واترمارک شامل درج واترمارک دیجیتال روی تصاویر و ویدیوها است.