کمیته رکن چهارم – سازمان دارپا در حال توسعه ابزارهایی است که ایمنی و قابلیت اطمینان تجهیزات خودمختار را در شرایط مختلف حفظ میکند.
پیچیدگی سامانههای خودمختاری فعلی که در حوزه و صنایع مختلف توسعه پیدا میکنند در سالهای اخیر افزایش یافته است. بخشی عظیمی از این مسئله به پیشرفت در محاسبات، مدلسازی، سنجش و دیگر فناوریهای این حوزه مربوط میشود. با وجود سرعت بالای توسعه فناوریهایی که در این زمینه وجود دارند، تضمینهای ایمنی این گونه سامانههای در شرایط خوبی قرار نداشته و به کندی شکل میگیرند. این چالش تا حد زیادی به الگوریتمهای یادگیری ماشینی مربوط میشود که غیرقابل پیشبینی هستند و از چارچوب ریاضی لازم برای ارائه تضمین و توضیحات بهره نمیبرند. عدم اطمینان، اعتماد به عملکرد صحیح هرگونه سامانه فیزیکی سایبری یادگیری (LE-CPS) را محدود میکند. که در نهایت از به کارگیری گسترده آنها در زمینه دفاعی جلوگیری میکند.
سازمان دارپا برای برطرف کردن چالش یاد شده پروژه «خودمختاری قابلاطمینان» (Assured Autonomy) را راهاندازی کرده است تا به صورت پیوسته از ایمنی و صحت عملکرد سامانههای فیزیکی سایبری یادگیری در زمان طراحی و پیادهسازی اطمینان حاصل کند. در این پروژه رویکردها و ابزارهای قابل اثبات توسعه پیدا میکنند. هدف از این کار به کارگیری آنها در انواع مختلفی از الگوریتمهای یادگیری ماشینی داده محور است تا علاوه برافزایش خودمختاری، از دستیابی به سطح قابلتوجهی از ایمنی اطمینان حاصل کند. برای تحقق این هدف اولویت برنامه روی رفع چالش مسائل دفاعی وسایل نقلیه خودمختار به خصوص نمونههای روی سطح زمین، هوا و زیرآب قرار داده شده است.
فاز اول پروژه خودمختاری قابلاطمینان به تازگی به پایان رسیده است. برای ارزیابی فناوریهای توسعه یافته در این فاز، گروههای تحقیقاتی دستاوردهای خود را با تعداد کمی از سامانههای خودمختار ادغام کرده و در معرض چالشهای امنیتی مختلفی قرار دادند. پس از ۱۸ ماه تحقیق در زمینه توسعه ابزارها، روشها و قابلیتهای یادگیری (LEC) اولین نشانههای پیشرفت را به نمایش گذاشت.
سندیپ نیما (Sandeep Neema)، مدیر برنامه خودمختاری قابلاطمینان گفت:
چندین نمونه موفقیتآمیز در این برنامه وجود دارد؛ اما ۳ مورد آنها پیشرفتهای قابلتوجهی را در حوزههای هوا، زمین و زیرآب به نمایش گذاشتند. محققانی که توسط گروههای ارزیابی بوئینگ، نورثروپ گرومن (Northrop Grumman) و مرکز سامانههای وسایل نقلیه زمینی فرماندهی توسعه قابلیتهای رزمی نیروی زمینی (CCDC) همکاری میکردند موفق شدند به در زمان طراحی و همچنین بهرهبرداری در محیطی که پیوسته در حال تحول است، به اطمینان مورد نظر دست پیدا کنند.
پژوهشگران دانشگاه کایفرونیا برکلی، هوافضایی کالینز (Collins Aerospace) و «SGT Inc» با بوئینگ همکاری میکردند. این افراد موفق شدند نشان دهند فناوریهای خودمختاری قابلاطمینان میتوانند ایمنی سامانهها در هواپیما را در زمان انجام عملیات روی زمین تقویت کنند. آنها برای دستیابی به این هدف یک الگوریتم یادگیری ماشینی بر پایه مدلی به نام «VerifAI» را برای ایجاد یک ابزار طراحی و تجزیهوتحلیل جدید به وجود آورند.
مدل VerifAI به صورت پیوسته تلاش میکند مؤلفههای یادگیری ماشینی را درک کرده و چالشها را برطرف کند و در صورت وجود محیطی غیرقابل اطمینان به مدلسازی و تحلیل رفتار سیستم بپردازد. پژوهشگران همچنین به منظور حصول اطمینان در زمان عملیات یک روش ایمنی مرکزی به نام «چشمان بسته» (Eyes-cloesed) را توسعه دادند. این روش امکان شناسایی ورودیهای غیرعادی و ارائه یک پاسخ مناسب و بدون خطر را به سامانههای خودمختار میدهد.
محققان ابزارهای خود را با بسترهای ارزیابی بوئینگ شامل « Iron Bird X-Plane» ادغام کردند که پلتفرم شبیهسازی و آزمایش هواپیماهای کوچک است تا عملکرد دستاوردهای خود را به طور خاص در مرحله تاکسی هواپیماها مورد بررسی قرار دهند. چالشهای این بخش شامل ردیابی خط میانی، کشف و جلوگیری از برخورد در باند فرودگاه است که برای هواپیماهای بدون سرنشین و نمونههای واقع روی عرشهها بسیار اهمیت دارد. در طول آزمایش سامانه توسعه یافته موفق شد یک مانع را روی باند تشخیص داده و از برخورد با آن اجتناب کند.
همچنین روشهای حصول اطمینان همچنین در زمان وجود نویز یا تصاویر مبهم دوربین، باعث شدند هواپیما تا زمان حصول اطمینان از ایمنی کامل و شفاف شدن شرایط متوقف شود. به علاوه ابزارها قادر به تشخیص ناهنجاریهایی بودند که جلوی عملکرد درست فرایند یادگیری را میگیرد تا امینی عملیات حفظ شود.
پژوهشگران آزمایشگاههای تحقیقاتی هیوز (HRL Laboratories)، نیز ابزارهای ارائه تضمین خود را با موفقیت در وسایل نقلیه نظامی خودمختار « Polaris MRZR » -که در اختیار فرماندهی توسعه قابلیتهای رزمی نیروی زمینی است- آزمایش کردند. ابزار این گروه از محققان سامانههای تجزیهوتحلیل هوش مصنوعی از استدلالهای ریاضی بهره میبرد. این کار از طریق شناسایی و جلوگیری از خرابیهای ایمنی به واسطه محاسبه شرایطی صورت میگیرد که میتوانند پیامدهای مخرب را به وجود آورند. به طور کلی تعیین میکند که آیا شبکه عصبی برای استفاده ایمن است یا خیر. آنها همچنین از مدلهای ریاضی بهره میگیرند که انحراف مدلهای ریاضیاتی خود را از هدف اصلی اندازهگیری میکند.
محققان هیوز برای ارزیابی کارایی ابزارهای خود، ابتدا از آنها برای شناسایی سناریوهایی بهره میگیرند که هوش مصنوعی در آن به صورت غیرمنتظره عمل میکند و رفتاری غیرعادی از خود به نمایش میگذارد. سپس یافتههای خود را در یک شبیهساز قرار دادند تا مشخص شود که آیا این سناریوها به رفتارهای ناایمن منجر میشود یا خیر. پس از این مرحله پژوهشگران با نیروی زمینی همکاری کردند تا ابزارهای خود را روی Polaris MRZR قرار دهند. از چالشهایی که این ابزار در خودرو نظامی یاد شده باید با آنها مواجه شود میتوان به شناسایی موانع موجود در محیط در زمان حرکت اشاره کرد.
در نهایت پژوهشگران دانشگاههای وندربیلت و کالیفرنیا با همکاری نورثروپ گرومن، روی چگونه استفاده از الگوریتمهای یادگیری ماشینی به منظور افزایش کارایی تجهیزات خودمختار زیر آب (AUV) کار میکردند. این گروه در حال طراحی ابزاری است که به زیردریاییهای خودمختار اجازه میدهد در زمان واقعی شرایط عملیاتی را مورد ارزیابی قرار داده و با در نظر گرفتن ایمنی برای مأموریت برنامهریزی کنند. از چالشهای وسایل خودمختار زیردریایی که پژوهشگران روی آن تمرکز کردهاند میتوان به بازرسی تجهیزات کف دریا و ناوبری در طول مسیر تأیید شده بدون این که نقشهای از آن محیط وجود داشته باشد، اشاره کرد.
نیما ادامه داد:
هر یک از محیطهای یاد شده چالشهای خاص خود را دارند؛ اما چالشهای محیط زیر آب کاملاً منحصربهفرد است. در این محیط همهچیز به کندی پیش میرود و مأموریتها مدتزمان بیشتری طول میکشند. همچنین محدودیتهای فیزیکی، حرکتی، ناوبری و ارتباطی بیشتری وجود دارد. بهبود خودمختاری، قابلیتهای حصول اطمینان و ایمنی آنها میتواند کمک بزرگی برای این حوزه به حساب آید.
وی افزود:
فاز دوم روی تکمیل، مقیاسپذیری، بهبود پوشش سناریوهای خطرناک، اضافه کردن تغییرات محیطی و بهینهسازی رفتارها در محیطهای پویا متمرکز است.