کمیته رکن چهارم – تصاویر ساخته شده توسط هوش مصنوعی سرگرمکننده به نظر میرسند، اما میتوانند یک خطر امنیتی جدی نیز باشند.
هوش مصنوعی (AI) پتانسیل تغییر ماهیت جامعه ما را دارد و اگر ابزارهای هوش مصنوعی که در حال حاضر در اختیار داریم، نشانهای از آینده باشد، باید منتظر چیزهای زیادی باشیم.
ما همچنین باید مراقب سلاحسازی هوش مصنوعی توسط مجرمان سایبری و سایر عوامل تهدید باشیم. این یک نگرانی نظری نیست و حتی تولیدکنندگان تصویر هوش مصنوعی نیز از این سوء استفادهها مصون نیستند.
مولد تصویر هوش مصنوعی چیست؟ چطورکار میکنند؟
اگر تا به حال از یک تولید کننده تصویر هوش مصنوعی استفاده کردهاید، ایده بسیار خوبی دارید که همه آنها چه کاری انجام میدهند. حتی اگر هرگز از آن استفاده نکرده باشید، به احتمال زیاد با تصاویر تولید شده توسط هوش مصنوعی در رسانههای اجتماعی و جاهای دیگر مواجه شدهاید. نرمافزاری که امروزه محبوب است بر اساس یک اصل بسیار ساده کار میکند: کاربر متن را تایپ میکند و هوش مصنوعی بر اساس آن متن، تصویری تولید میکند.
آنچه پشت پرده میگذرد بسیار پیچیدهتر است. هوش مصنوعی در سالهای اخیر بسیار بهتر شده است و امروزه اکثر تولیدکنندگان متن به تصویر به اصطلاح مدلهای انتشار هستند. این بدان معناست که آنها در مدتزمان طولانی بر روی تعداد زیادی متن و تصویر آموزش داده شدهاند و همین باعث میشود که خلاقیت آنها بسیار چشمگیر و به طرز خیرهکنندهای واقعگرایانه باشد.
چیزی که این ابزارهای هوش مصنوعی را حتی چشمگیرتر میکند این واقعیت است که آنها فقط تصاویر موجود را تغییر نمیدهند یا هزاران تصویر را در یک تصویر ترکیب نمیکنند، بلکه تصاویر جدید و اصلی را از ابتدا ایجاد میکنند. هرچه افراد بیشتر از این تولیدکنندههای متن به تصویر استفاده کنند، اطلاعات بیشتری به آنها داده میشود و خلاقیت آنها بهتر میشود.
برخی از شناختهشدهترین تولیدکنندگان تصویر هوش مصنوعی Dream by WOMBO، DALL-E، Stable Diffusion، Midjourney، DeepAI، Fotor و Craiyon هستند. موارد جدید چپ و راست ظاهر میشوند و غولهای فناوری – از جمله گوگل – در حال انتشار خود هستند، بنابراین ما فقط میتوانیم حدس بزنیم که آینده چه خواهد شد.
۴ روشی که عاملان تهدید مولدهای تصویر هوش مصنوعی را به سلاح تبدیل میکنند
مانند تقریباً تمام فناوریها، تولیدکنندگان تصویر هوش مصنوعی میتوانند توسط بازیگران بدخواه مورد سوء استفاده قرار گیرند. در واقع، آنها در حال حاضر برای همه نوع اهداف پلید استفاده میشوند. اما یک جنایتکار دقیقاً چه نوع کلاهبرداری و حملات سایبری را میتواند با کمک تولیدکنندگان تصویر هوش مصنوعی انجام دهد؟
- مهندسی اجتماعی
یکی از کارهای آشکاری که عاملان تهدید میتوانند با تولیدکنندگان تصویر هوش مصنوعی انجام دهند، مشارکت در مهندسی اجتماعی است. به عنوان مثال، پروفایلهای شبکههای اجتماعی جعلی ایجاد کنید. برخی از این برنامهها میتوانند تصاویر فوقالعاده واقعی ایجاد کنند که دقیقاً شبیه عکسهای واقعی افراد واقعی است و یک کلاهبردار میتواند از این پروفایلهای جعلی رسانههای اجتماعی برای فیشینگ استفاده کند.
برخلاف عکسهای افراد واقعی، عکسهای تولید شده توسط هوش مصنوعی را نمیتوان از طریق جستجوی عکس معکوس کشف کرد و مجرم سایبری مجبور نیست برای فریب دادن هدف خود با تعداد محدودی عکس کار کند – با استفاده از هوش مصنوعی، آنها میتوانند هر تعداد که دوست دارند، یک هویت آنلاین قانع کننده از ابتدا تولید کنند و بسازند.
اما نمونههایی در زندگی واقعی از عوامل تهدید وجود دارد که از تولیدکنندههای تصویر هوش مصنوعی برای کلاهبرداری از مردم استفاده میکنند. در آوریل ۲۰۲۲، بن دیکینسون، وبلاگ نویس TechTalks، ایمیلی از یک شرکت حقوقی دریافت کرد که ادعا میکرد از یک تصویر بدون اجازه استفاده کرده است. وکلا یک اعلامیه نقض حق نسخهبرداری DMCA را ایمیل کردند و به دیکنسون گفتند که باید به مشتری آنها پیوند بزند یا تصویر را حذف کند.
دیکینسون شرکت حقوقی را در گوگل جستجو کرد و وب سایت رسمی را پیدا کرد. همه چیز کاملاً مشروع به نظر میرسید. این سایت حتی عکسهایی از ۱۸ وکیل به همراه بیوگرافی و اعتبار آنها داشت. اما هیچکدام واقعی نبود. همه عکسها توسط هوش مصنوعی تولید شدهاند و اعلامیههای نقض حق نسخهبرداری توسط شخصی ارسال شده است که به دنبال اخاذی بک لینک از وبلاگنویسهای ناآگاه به عنوان بخشی از استراتژی غیراخلاقی کلاه سیاه SEO (بهینهسازی موتور جستجو) است.
- کلاهبرداریهای خیریه
هنگامی که زلزلههای ویرانگر ترکیه و سوریه در فوریه ۲۰۲۳ رخ داد، میلیونها نفر در سراسر جهان با اهدای لباس، غذا و پول همبستگی خود را با قربانیان اعلام کردند.
بر اساس گزارشی از بیبیسی، کلاهبرداران از این فرصت استفاده کردند و از هوش مصنوعی برای ایجاد تصاویر واقعی و درخواست کمکهای مالی استفاده کردند. یکی از کلاهبرداران تصاویری از ویرانههای تولید شده توسط هوش مصنوعی را در TikTok Live نشان داد و از بینندگان خود درخواست کمک مالی کرد. یکی دیگر تصویری را که توسط هوش مصنوعی ایجاد شده بود از یک آتشنشان یونانی در حال نجات یک کودک مجروح از خرابهها منتشر کرد و از دنبالکنندگانش درخواست کمکهای مالی به بیتکوین کرد.
تنها میتوان تصور کرد که مجرمان در آینده چه نوع کلاهبرداریهای خیریهای را با کمک هوش مصنوعی اجرا خواهند کرد، اما میتوان تصور کرد که آنها فقط در سوء استفاده از این نرمافزار بهتر خواهند شد.
- دیپفیک و اطلاعات نادرست
دولتها، گروههای فعال و اندیشکدهها مدتهاست در مورد خطرات دیپفیک هشدار دادهاند. مولدهای تصویر هوش مصنوعی، با توجه به واقعی بودن خلاقیتهایشان، مؤلفه دیگری به این مشکل اضافه میکنند. در واقع، در بریتانیا، حتی یک نمایش کمدی به نام Deep Fake Neighbor Wars وجود دارد که طنز را در جفتهای غیرمحتمل افراد مشهور پیدا میکند. چه چیزی یک عامل اطلاعات نادرست را از ایجاد یک تصویر جعلی و تبلیغ آن در رسانههای اجتماعی با کمک رباتها باز میدارد؟
این میتواند عواقب واقعی داشته باشد، همانطور که تقریباً در مارس ۲۰۲۲ رخ داد، هنگامی که یک ویدیوی جعلی که ولادیمیر زلنسکی، رئیس جمهور اوکراین را به تصویر میکشد که به اوکراینیها می گوید تسلیم شوند، به صورت آنلاین بر اساس NPR منتشر شد. اما این تنها یک مثال است، زیرا احتمالات تقریباً بیپایان است و راههای بیشماری وجود دارد که یک عامل تهدید میتواند به اعتبار کسی آسیب برساند، یک روایت نادرست را تبلیغ کند یا اخبار جعلی را با کمک هوش مصنوعی منتشر کند.
- کلاهبرداری تبلیغاتی
محققان TrendMicro در سال ۲۰۲۲ کشف کردند که کلاهبرداران از محتوای تولید شده توسط هوش مصنوعی برای ایجاد تبلیغات گمراهکننده و ترویج محصولات مشکوک استفاده میکنند. آنها تصاویری ایجاد کردند که به افراد مشهور پیشنهاد میکرد از محصولات خاصی استفاده کنند و کمپینهای تبلیغاتی را بر اساس آن تصاویر راهاندازی کردند.
به عنوان مثال، یک تبلیغ برای «فرصت مشاوره مالی» میلیاردر ایلان ماسک، بنیانگذار و مدیر عامل تسلا را نشان میدهد. البته، ماسک هرگز محصول مورد بحث را تایید نکرد، اما فیلمهای تولید شده توسط هوش مصنوعی نشان میدهد که اینطور به نظر میرسد و احتمالاً بینندگان ناآگاه را به کلیک روی تبلیغات میکشاند.
هوش مصنوعی و امنیت سایبری: مسئله پیچیدهای که باید با آن مقابله کنیم
در آینده، رگولاتورهای دولتی و کارشناسان امنیت سایبری احتمالا باید برای مقابله با تهدید نوظهور جرایم سایبری مبتنی بر هوش مصنوعی با یکدیگر همکاری کنند. اما چگونه میتوانیم هوش مصنوعی را تنظیم کنیم و از مردم عادی محافظت کنیم، بدون اینکه نوآوری را خفه کنیم و آزادیهای دیجیتال را محدود کنیم؟ این سوال برای سالهای آینده بزرگ خواهد بود.
تا زمانی که پاسخی وجود ندارد، برای محافظت از خود هر کاری میتوانید انجام دهید: هر اطلاعاتی را که آنلاین میبینید به دقت بررسی کنید، از وبسایتهای سایهدار خودداری کنید، از نرمافزارهای ایمن استفاده کنید، دستگاههای خود را بهروز نگه دارید و یاد بگیرید که از هوش مصنوعی به نفع خود استفاده کنید.
منبع: افتانا