سوء استفاده کلاهبرداران از هوش مصنوعی

کمیته رکن چهارم – هوش مصنوعی با وجود مزیت‌های هیجان‌انگیز فراوان، می‌تواند از سوی کلاهبرداران نیز مورد سوءاستفاده قرار بگیرد.

یک زوج کانادایی ۷۰ ساله اخیراً از طرف نوه‌ی خود تماسی تلفنی دریافت کردند که به آن‌ها گفت در زندان است و به پول وثیقه نیاز دارد. آن‌ها ۳۰۰۰ دلار از حساب بانکی خود برداشت کردند و قصد داشتند همین مقدار پول را از حساب دیگر خود دریافت کنند اما مدیر بانک هشدار داد که تماس مذکور درواقع کلاهبرداری است؛ زیرا قبلاً یکی دیگر از مشتریان آن‌ها تماسی مشابه را دریافت کرده بود که بعداً مشخص شد آن تماس نیز جعلی بوده است.

زوج دیگری تماسی از یک وکیل دریافت کردند که به آن‌ها اعلام کرد پسرشان یک دیپلمات آمریکایی را در تصادف رانندگی کشته است و اکنون در زندان به‌سر می‌برد و برای تأمین هزینه‌های قانونی به پول احتیاج دارد. این وکیل حتی پسر زوج مذکور را پشت تلفن آورد تا به آن‌ها بگوید دوستشان دارد و از آن‌ها بابت پولی که پرداخت می‌کنند قدردانی می‌کند.

این زوج می‌گویند صدای پخش‌شده شباهت بسیار زیادی به صدای پسر آن‌ها داشت و به‌همین‌دلیل باور کردند که واقعاً با او صحبت کرده‌اند. آن‌ها مبلغ ۱۵۴۴۹ دلار را از طریق شبکه بیت‌کوین برای شخص کلاهبردار ارسال کردند و موفق به پس گرفتن آن نشدند.

کلاهبرداری از طریق جعل صدای دیگران، موضوع جدیدی نیست. داده‌های کمیسیون تجارت فدرال آمریکا نشان می‌دهد از هر ۳۶ هزار گزارش مربوط به کلاهبرداری در سال گذشته که وانمود کرده‌اند دوست یا خانواده افراد هستند، بیش‌ از ۵۱۰۰ مورد آن‌ها جعلی بوده‌اند.

تِک‌اسپات می‌نویسد، فرایند جعل صدا قبلاً بسیار پیچیده‌ای بود و برای انجام این‌ کار به جمع‌آوری چندین ساعت صدای شخص موردنیاز نیاز داشتید و البته همیشه کیفیت بالایی هم ارائه نمی‌داد. اکنون با روی کار آمدن ابزارهای هوش مصنوعی، فرایند شبیه‌سازی صدای دیگران بسیار آسان است و کلاهبرداران فقط به کلیپ بسیار کوچکی از صحبت کردن آن‌ها نیاز دارند و این مورد نیز در اغلب موارد در حساب‌های کاربری رسانه‌های اجتماعی افراد موجود است.

ابزار Vall-E مایکروسافت که ماه ژانویه معرفی شد بر پایه فناوری دیگری موسوم‌ به EnCodec کار می‌کند. این ابزار با تجزیه‌وتحلیل سه ثانیه از صدای افراد و استفاده از آن برای آموزش مدل‌های هوش مصنوعی، می‌تواند صدای آن‌ها را با کیفیت بالا شبیه‌سازی کند. این فناوری حتی لحن، تن صدا و احساس گوینده را نیز تقلید می‌کند. با مراجعه به صفحه گیت‌ها این پروژه می‌توانید قدرت آن را در تقلید صدای دیگران مشاهده کنید.

ElevenLabs نیز ابزار صوتی مبتنی‌بر هوش مصنوعی دیگری به‌نام VoiceLab ارائه داده است که امکان شبیه‌سازی صدای افراد را با روشی آسان فراهم می‌کند. البته سوءاستفاده‌های فراوان از این برنامه باعث شد قابلیت شبیه‌سازی صدا از نسخه رایگان آن حذف شود.

منبع : زومیت

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Red Captcha Characters Below.