افزایش کلاهبرداری به کمک فناوری دیپ‌فیک

کمیته رکن چهارم – کلاهبرداران با استفاده از فناوری جعل عمیق و تقلید صدای مدیرعامل یک شرکت آلمانی، مبلغ ۲۴۳ هزار دلار سرقت کردند.

به گفته وال استریت ژورنال، تشخیص متن و فیلم واقعی از جعلی کار دشواری است. در حال حاضر، به نظر می‌رسد استفاده از فناوری دیپ‌‌فیک در حال افزایش است.

در ماه مارس ۲۰۱۹،  جنایتکاران از نرم‌افزار هوش مصنوعی تولید صوت برای جعل هویت رئیس یک شرکت مادر آلمانی صاحب شرکت انرژی مستقر در انگلستان استفاده کردند.

آنها با فریب مدیراجرایی دوم، از او خواستند تا مبلغی را – با ضمانت بازپرداخت سریع پول پس از انتقال – در عرض یک ساعت به یک ارائه دهنده مجارستانی واریز کند.

براساس گزارش منتشر شده، مدیرعامل شرکت صدا و لهجه آشنای فرد آلمانی را شنیده و درنتیجه به هیچ چیزی مشکوک نشده است.

نه تنها مبلغ گرفته شده بازگردانده نشد، بلکه کلاهبرداران درخواست انتقال مبلغی دیگر کردند. اما این بار مدیرعامل بریتانیایی از پرداخت پول خودداری کرد. چندی بعد مشخص شد که مبلغ به ظاهر منتقل شده به مجارستان، در واقع به مکزیک و دیگر مناطق فرستاده شده است. مقامات هنوز هم مسئولان این جرم سایبری را پیدا نکرده‌اند.

این شرکت به‌وسیله گروه «Euler Hermes» بیمه شده بود که کل هزینه پرداخت را پوشش می‌داد. اسامی شرکت و احزاب درگیر هنوز اعلام نشده‌اند.

حملات سایبری مبتنی بر هوش مصنوعی درواقع آغاز مشکلات مشاغل و سازمان‌ها در آینده هستند. در این مورد، نرم‌افزار تولید صدا با موفقیت صدای مدیرعامل آلمانی را تقلید کرد. اما این تنها مورد استفاده از هوش مصنوعی برای انجام یک جرم نیست.

در مقابل، اگر حملات مهندسی اجتماعی موفقیت‌آمیز باشند، به لحاظ فرکانس افزایش خواهند یافت. با رشد ابزارهای تقلید صوت، احتمال کاربرد آنها از سوی مجرمان نیز افزایش می‌یابد. با جعل هویت از طریق تلفن، دسترسی عامل تهدید به اطلاعات شخصی و سوءاستفاده‌های پنهانی در آینده آسان می‌شود.

در ماه ژوئیه امسال، اداره سایبری ملی اسرائیل درمورد نوع جدید حمله سایبری مبنی بر استفاده از فناوری هوش مصنوعی برای جعل هویت مدیران ارشد شرکت‌ها – از جمله آموزش کارمندان در انجام معاملاتی مانند انتقال پول و سایر فعالیت‌های مخرب در شبکه – هشدار داد.

سال گذشته، شرکت امنیت سایبری «Pindrop»، طراح نرم‌افزار صدای ضد کلاهبرداری از افزایش ۳۵۰ درصدی میزان تقلب در صدا از سال ۲۰۱۳ تا ۲۰۱۷ خبر داد؛ بدین صورت که از هر ۶۳۸ تماس یک مورد به‌صورت مصنوعی ایجاد می‌شود. برای محافظت از اقتصاد و شهرت شرکت‌ها، باید دستورالعمل‌های صوتی از طریق ایمیل پیگیری یا سایر راه‌های جایگزین تأیید شوند.

افزایش ابزارهای مبتنی بر هوش مصنوعی، فراز و فرودهای مربوط به خود را دارد. از یک طرف فضای کاوش و خلاقیت فراهم می‌شود؛ از سوی دیگر، انجام هرگونه جرم، فریب و کلاهبرداری ممکن می‎شود.

منبع : سایبربان

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Blue Captcha Characters Below.