توانایی های هوش مصنوعی مولد برای ایجاد تصاویری شبیه به زندگی قابل توجه است، اما دفتر تحقیقات فدرال ایالات متحده می گوید که مجرمان از دیپ فیک برای هدف قرار دادن قربانیان برای اخاذی استفاده می کنند.
این آژانس روز دوشنبه در یک هشدار PSA گفت: «افبیآی به دریافت گزارشهایی از قربانیان، از جمله کودکان خردسال و بزرگسالانی که رضایت ندارند، که عکسها یا فیلمهایشان به محتوای صریح تغییر داده شده است، ادامه میدهد».
افبیآی میگوید آژانسهای مجری قانون در سال گذشته بیش از 7,000 گزارش دریافت کردهاند که اخاذیهای آنلاین را هدف قرار دادهاند و از آوریل تاکنون قربانیان به اصطلاح «کلاهبرداریهای اخاذی» با استفاده از دیپفیک افزایش یافته است.
دیپفیک نوعی محتوای ویدیویی یا صوتی است که با هوش مصنوعی ایجاد میشود و به لطف پلتفرمهای هوش مصنوعی مولد مانند Midjourney 5.1 و OpenAI DALL-E 2، رویدادهای نادرستی را به تصویر میکشد که تشخیص جعلی بودن آنها سختتر است.
در ماه مه، دیپ جعلی ایلان ماسک، مدیرعامل تسلا و توییتر که برای کلاهبرداری از سرمایه گذاران ارزهای دیجیتال ساخته شده بود، در فضای مجازی منتشر شد. ویدئوی به اشتراک گذاشته شده در رسانه های اجتماعی حاوی تصاویری از ماسک از مصاحبه های قبلی است که به تناسب کلاهبرداری ویرایش شده است.
دیپفیکها همه مخرب نیستند، دیپفیک پاپ فرانسیس که کت سفید Balenciaga پوشیده بود، اوایل امسال در فضای مجازی منتشر شد، و اخیراً، دیپفیکهای تولید شده توسط هوش مصنوعی نیز برای زنده کردن قربانیان قتل استفاده شدهاند.
در توصیه های خود، FBI نسبت به پرداخت هرگونه باج هشدار داد زیرا انجام این کار تضمین نمی کند که مجرمان به هر حال دیپ فیک را ارسال نکنند.
FBI همچنین توصیه میکند هنگام به اشتراکگذاری اطلاعات شخصی و محتوای آنلاین، از جمله استفاده از ویژگیهای حفظ حریم خصوصی مانند خصوصی کردن حسابها، نظارت بر فعالیت آنلاین کودکان، و مشاهده رفتار غیرعادی افرادی که در گذشته با آنها تعامل داشتهاید، احتیاط کنید. این آژانس همچنین توصیه می کند که جستجوهای مکرر برای اطلاعات شخصی و اعضای خانواده به صورت آنلاین انجام شود.
آژانسهای دیگری که زنگ خطر را به صدا درآوردهاند عبارتند از کمیسیون تجارت فدرال ایالات متحده، که هشدار داد مجرمان پس از ایجاد دیپفیک صوتی یکی از دوستان یا اعضای خانواده که میگوید ربوده شدهاند، از دیپفیک برای فریب قربانیان ناآگاه برای ارسال پول استفاده میکنند.
هوش مصنوعی دیگر ایدهای دور از ذهن نیست که از یک فیلم علمی تخیلی خارج شود. ما در اینجا و اکنون با آن زندگی می کنیم. یک کلاهبردار می تواند از هوش مصنوعی برای شبیه سازی صدای فرد مورد علاقه شما استفاده کند.
FBI هنوز به این موضوع واکنشی نشان نداده است رمزگشایی درخواست نظر.
از اخبار ارزهای دیجیتال مطلع باشید، بهروزرسانیهای روزانه را در صندوق ورودی خود دریافت کنید.
منبع: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams