FBI نسبت به کلاهبرداری های اخاذی با هوش مصنوعی هشدار داد

توانایی های هوش مصنوعی مولد برای ایجاد تصاویری شبیه به زندگی قابل توجه است، اما دفتر تحقیقات فدرال ایالات متحده می گوید که مجرمان از دیپ فیک برای هدف قرار دادن قربانیان برای اخاذی استفاده می کنند.

این آژانس روز دوشنبه در یک هشدار PSA گفت: «اف‌بی‌آی به دریافت گزارش‌هایی از قربانیان، از جمله کودکان خردسال و بزرگسالانی که رضایت ندارند، که عکس‌ها یا فیلم‌هایشان به محتوای صریح تغییر داده شده است، ادامه می‌دهد».

اف‌بی‌آی می‌گوید آژانس‌های مجری قانون در سال گذشته بیش از 7,000 گزارش دریافت کرده‌اند که اخاذی‌های آنلاین را هدف قرار داده‌اند و از آوریل تاکنون قربانیان به اصطلاح «کلاهبرداری‌های اخاذی» با استفاده از دیپ‌فیک افزایش یافته است.

دیپ‌فیک نوعی محتوای ویدیویی یا صوتی است که با هوش مصنوعی ایجاد می‌شود و به لطف پلتفرم‌های هوش مصنوعی مولد مانند Midjourney 5.1 و OpenAI DALL-E 2، رویدادهای نادرستی را به تصویر می‌کشد که تشخیص جعلی بودن آن‌ها سخت‌تر است.

در ماه مه، دیپ جعلی ایلان ماسک، مدیرعامل تسلا و توییتر که برای کلاهبرداری از سرمایه گذاران ارزهای دیجیتال ساخته شده بود، در فضای مجازی منتشر شد. ویدئوی به اشتراک گذاشته شده در رسانه های اجتماعی حاوی تصاویری از ماسک از مصاحبه های قبلی است که به تناسب کلاهبرداری ویرایش شده است.

دیپ‌فیک‌ها همه مخرب نیستند، دیپ‌فیک پاپ فرانسیس که کت سفید Balenciaga پوشیده بود، اوایل امسال در فضای مجازی منتشر شد، و اخیراً، دیپ‌فیک‌های تولید شده توسط هوش مصنوعی نیز برای زنده کردن قربانیان قتل استفاده شده‌اند.

در توصیه های خود، FBI نسبت به پرداخت هرگونه باج هشدار داد زیرا انجام این کار تضمین نمی کند که مجرمان به هر حال دیپ فیک را ارسال نکنند.

FBI همچنین توصیه می‌کند هنگام به اشتراک‌گذاری اطلاعات شخصی و محتوای آنلاین، از جمله استفاده از ویژگی‌های حفظ حریم خصوصی مانند خصوصی کردن حساب‌ها، نظارت بر فعالیت آنلاین کودکان، و مشاهده رفتار غیرعادی افرادی که در گذشته با آنها تعامل داشته‌اید، احتیاط کنید. این آژانس همچنین توصیه می کند که جستجوهای مکرر برای اطلاعات شخصی و اعضای خانواده به صورت آنلاین انجام شود.

آژانس‌های دیگری که زنگ خطر را به صدا درآورده‌اند عبارتند از کمیسیون تجارت فدرال ایالات متحده، که هشدار داد مجرمان پس از ایجاد دیپ‌فیک صوتی یکی از دوستان یا اعضای خانواده که می‌گوید ربوده شده‌اند، از دیپ‌فیک برای فریب قربانیان ناآگاه برای ارسال پول استفاده می‌کنند.

هوش مصنوعی دیگر ایده‌ای دور از ذهن نیست که از یک فیلم علمی تخیلی خارج شود. ما در اینجا و اکنون با آن زندگی می کنیم. یک کلاهبردار می تواند از هوش مصنوعی برای شبیه سازی صدای فرد مورد علاقه شما استفاده کند.

FBI هنوز به این موضوع واکنشی نشان نداده است رمزگشایی درخواست نظر.

از اخبار ارزهای دیجیتال مطلع باشید، به‌روزرسانی‌های روزانه را در صندوق ورودی خود دریافت کنید.

منبع: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams