مولدهای تصاویر هوش مصنوعی؛ تهدید نوظهور سایبری

کمیته رکن چهارم – تصاویر ساخته شده توسط هوش مصنوعی سرگرم‌کننده به نظر می‌رسند، اما می‌توانند یک خطر امنیتی جدی نیز باشند.

هوش مصنوعی (AI) پتانسیل تغییر ماهیت جامعه ما را دارد و اگر ابزارهای هوش مصنوعی که در حال حاضر در اختیار داریم، نشانه‌ای از آینده باشد، باید منتظر چیزهای زیادی باشیم.

ما همچنین باید مراقب سلاح‌سازی هوش مصنوعی توسط مجرمان سایبری و سایر عوامل تهدید باشیم. این یک نگرانی نظری نیست و حتی تولیدکنندگان تصویر هوش مصنوعی نیز از این سوء استفاده‌ها مصون نیستند.

مولد تصویر هوش مصنوعی چیست؟ چطورکار می‌کنند؟

اگر تا به حال از یک تولید کننده تصویر هوش مصنوعی استفاده کرده‌اید، ایده بسیار خوبی دارید که همه آن‌ها چه کاری انجام می‌دهند. حتی اگر هرگز از آن استفاده نکرده باشید، به احتمال زیاد با تصاویر تولید شده توسط هوش مصنوعی در رسانه‌های اجتماعی و جاهای دیگر مواجه شده‌اید. نرم‌افزاری که امروزه محبوب است بر اساس یک اصل بسیار ساده کار می‌کند: کاربر متن را تایپ می‌کند و هوش مصنوعی بر اساس آن متن، تصویری تولید می‌کند.

آنچه پشت پرده می‌گذرد بسیار پیچیده‌تر است. هوش مصنوعی در سال‌های اخیر بسیار بهتر شده است و امروزه اکثر تولیدکنندگان متن به تصویر به اصطلاح مدل‌های انتشار هستند. این بدان معناست که آن‌ها در مدت‌زمان طولانی بر روی تعداد زیادی متن و تصویر آموزش داده شده‌اند و همین باعث می‌شود که خلاقیت آن‌ها بسیار چشمگیر و به طرز خیره‌کننده‌ای واقع‌گرایانه باشد.

چیزی که این ابزارهای هوش مصنوعی را حتی چشمگیرتر می‌کند این واقعیت است که آن‌ها فقط تصاویر موجود را تغییر نمی‌دهند یا هزاران تصویر را در یک تصویر ترکیب نمی‌کنند، بلکه تصاویر جدید و اصلی را از ابتدا ایجاد می‌کنند. هرچه افراد بیشتر از این تولیدکننده‌های متن به تصویر استفاده کنند، اطلاعات بیشتری به آن‌ها داده می‌شود و خلاقیت آن‌ها بهتر می‌شود.

برخی از شناخته‌شده‌ترین تولیدکنندگان تصویر هوش مصنوعی Dream by WOMBO، DALL-E، Stable Diffusion، Midjourney، DeepAI، Fotor و Craiyon هستند. موارد جدید چپ و راست ظاهر می‌شوند و غول‌های فناوری – از جمله گوگل – در حال انتشار خود هستند، بنابراین ما فقط می‌توانیم حدس بزنیم که آینده چه خواهد شد.

۴ روشی که عاملان تهدید مولدهای تصویر هوش مصنوعی را به سلاح تبدیل می‌کنند

مانند تقریباً تمام فناوری‌ها، تولیدکنندگان تصویر هوش مصنوعی می‌توانند توسط بازیگران بدخواه مورد سوء استفاده قرار گیرند. در واقع، آن‌ها در حال حاضر برای همه نوع اهداف پلید استفاده می‌شوند. اما یک جنایتکار دقیقاً چه نوع کلاهبرداری و حملات سایبری را می‌تواند با کمک تولیدکنندگان تصویر هوش مصنوعی انجام دهد؟

  • مهندسی اجتماعی

یکی از کارهای آشکاری که عاملان تهدید می‌توانند با تولیدکنندگان تصویر هوش مصنوعی انجام دهند، مشارکت در مهندسی اجتماعی است. به عنوان مثال، پروفایل‌های شبکه‌های اجتماعی جعلی ایجاد کنید. برخی از این برنامه‌ها می‌توانند تصاویر فوق‌العاده واقعی ایجاد کنند که دقیقاً شبیه عکس‌های واقعی افراد واقعی است و یک کلاهبردار می‌تواند از این پروفایل‌های جعلی رسانه‌های اجتماعی برای فیشینگ استفاده کند.

برخلاف عکس‌های افراد واقعی، عکس‌های تولید شده توسط هوش مصنوعی را نمی‌توان از طریق جستجوی عکس معکوس کشف کرد و مجرم سایبری مجبور نیست برای فریب دادن هدف خود با تعداد محدودی عکس کار کند – با استفاده از هوش مصنوعی، آن‌ها می‌توانند هر تعداد که دوست دارند، یک هویت آنلاین قانع کننده از ابتدا تولید کنند و بسازند.

اما نمونه‌هایی در زندگی واقعی از عوامل تهدید وجود دارد که از تولیدکننده‌های تصویر هوش مصنوعی برای کلاهبرداری از مردم استفاده می‌کنند. در آوریل ۲۰۲۲، بن دیکینسون، وبلاگ نویس TechTalks، ایمیلی از یک شرکت حقوقی دریافت کرد که ادعا می‌کرد از یک تصویر بدون اجازه استفاده کرده است. وکلا یک اعلامیه نقض حق نسخه‌برداری DMCA را ایمیل کردند و به دیکنسون گفتند که باید به مشتری آن‌ها پیوند بزند یا تصویر را حذف کند.

دیکینسون شرکت حقوقی را در گوگل جستجو کرد و وب سایت رسمی را پیدا کرد. همه چیز کاملاً مشروع به نظر می‌رسید. این سایت حتی عکس‌هایی از ۱۸ وکیل به همراه بیوگرافی و اعتبار آن‌ها داشت. اما هیچکدام واقعی نبود. همه عکس‌ها توسط هوش مصنوعی تولید شده‌اند و اعلامیه‌های نقض حق نسخه‌برداری توسط شخصی ارسال شده است که به دنبال اخاذی بک لینک از وبلاگ‌نویس‌های ناآگاه به عنوان بخشی از استراتژی غیراخلاقی کلاه سیاه SEO (بهینه‌سازی موتور جستجو) است.

  • کلاهبرداری‌های خیریه

هنگامی که زلزله‌های ویرانگر ترکیه و سوریه در فوریه ۲۰۲۳ رخ داد، میلیون‌ها نفر در سراسر جهان با اهدای لباس، غذا و پول همبستگی خود را با قربانیان اعلام کردند.

بر اساس گزارشی از بی‌بی‌سی، کلاهبرداران از این فرصت استفاده کردند و از هوش مصنوعی برای ایجاد تصاویر واقعی و درخواست کمک‌های مالی استفاده کردند. یکی از کلاهبرداران تصاویری از ویرانه‌های تولید شده توسط هوش مصنوعی را در TikTok Live نشان داد و از بینندگان خود درخواست کمک مالی کرد. یکی دیگر تصویری را که توسط هوش مصنوعی ایجاد شده بود از یک آتش‌نشان یونانی در حال نجات یک کودک مجروح از خرابه‌ها منتشر کرد و از دنبال‌کنندگانش درخواست کمک‌های مالی به بیت‌کوین کرد.

تنها می‌توان تصور کرد که مجرمان در آینده چه نوع کلاهبرداری‌های خیریه‌ای را با کمک هوش مصنوعی اجرا خواهند کرد، اما می‌توان تصور کرد که آن‌ها فقط در سوء استفاده از این نرم‌افزار بهتر خواهند شد.

  •  دیپ‌فیک و اطلاعات نادرست

دولت‌ها، گروه‌های فعال و اندیشکده‌ها مدت‌هاست در مورد خطرات دیپ‌فیک هشدار داده‌اند. مولدهای تصویر هوش مصنوعی، با توجه به واقعی بودن خلاقیت‌هایشان، مؤلفه دیگری به این مشکل اضافه می‌کنند. در واقع، در بریتانیا، حتی یک نمایش کمدی به نام Deep Fake Neighbor Wars وجود دارد که طنز را در جفت‌های غیرمحتمل افراد مشهور پیدا می‌کند. چه چیزی یک عامل اطلاعات نادرست را از ایجاد یک تصویر جعلی و تبلیغ آن در رسانه‌های اجتماعی با کمک ربات‌ها باز می‌دارد؟

این می‌تواند عواقب واقعی داشته باشد، همانطور که تقریباً در مارس ۲۰۲۲ رخ داد، هنگامی که یک ویدیوی جعلی که ولادیمیر زلنسکی، رئیس جمهور اوکراین را به تصویر می‌کشد که به اوکراینی‌ها می گوید تسلیم شوند، به صورت آنلاین بر اساس NPR منتشر شد. اما این تنها یک مثال است، زیرا احتمالات تقریباً بی‌پایان است و راه‌های بی‌شماری وجود دارد که یک عامل تهدید می‌تواند به اعتبار کسی آسیب برساند، یک روایت نادرست را تبلیغ کند یا اخبار جعلی را با کمک هوش مصنوعی منتشر کند.

  • کلاهبرداری تبلیغاتی

محققان TrendMicro در سال ۲۰۲۲ کشف کردند که کلاهبرداران از محتوای تولید شده توسط هوش مصنوعی برای ایجاد تبلیغات گمراه‌کننده و ترویج محصولات مشکوک استفاده می‌کنند. آن‌ها تصاویری ایجاد کردند که به افراد مشهور پیشنهاد می‌کرد از محصولات خاصی استفاده کنند و کمپین‌های تبلیغاتی را بر اساس آن تصاویر راه‌اندازی کردند.

به عنوان مثال، یک تبلیغ برای «فرصت مشاوره مالی» میلیاردر ایلان ماسک، بنیان‌گذار و مدیر عامل تسلا را نشان می‌دهد. البته، ماسک هرگز محصول مورد بحث را تایید نکرد، اما فیلم‌های تولید شده توسط هوش مصنوعی نشان می‌دهد که اینطور به نظر می‌رسد و احتمالاً بینندگان ناآگاه را به کلیک روی تبلیغات می‌کشاند.

هوش مصنوعی و امنیت سایبری: مسئله پیچیده‌ای که باید با آن مقابله کنیم

در آینده، رگولاتورهای دولتی و کارشناسان امنیت سایبری احتمالا باید برای مقابله با تهدید نوظهور جرایم سایبری مبتنی بر هوش مصنوعی با یکدیگر همکاری کنند. اما چگونه می‌توانیم هوش مصنوعی را تنظیم کنیم و از مردم عادی محافظت کنیم، بدون اینکه نوآوری را خفه کنیم و آزادی‌های دیجیتال را محدود کنیم؟ این سوال برای سال‌های آینده بزرگ خواهد بود.

تا زمانی که پاسخی وجود ندارد، برای محافظت از خود هر کاری می‌توانید انجام دهید: هر اطلاعاتی را که آنلاین می‌بینید به دقت بررسی کنید، از وب‌سایت‌های سایه‌دار خودداری کنید، از نرم‌افزارهای ایمن استفاده کنید، دستگاه‌های خود را به‌روز نگه دارید و یاد بگیرید که از هوش مصنوعی به نفع خود استفاده کنید.

منبع: افتانا

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Blue Captcha Characters Below.