ایمنی زیستی، اولویت جدید OpenAI

کمیته رکن چهارم – شرکت OpenAI از راه‌اندازی سامانه‌ای ویژه در مدل‌های جدید هوش مصنوعی خود برای مقابله با درخواست‌های حاوی تهدیدهای زیستی و شیمیایی خبر داد؛ اقدامی که در ادامه نگرانی‌ها درباره احتمال سوءاستفاده از توانمندی‌های مدل‌های زبانی در تولید اطلاعات خطرناک صورت گرفته است.

به گزارش کمیته رکن چهارم، این سامانه که در مدل‌های o3 و o4-mini فعال شده، «ناظر استدلالی با تمرکز بر ایمنی» نام دارد و به‌گونه‌ای طراحی شده تا از پاسخ‌دهی این مدل‌ها به درخواست‌هایی که ممکن است در جهت ساخت یا ترویج حملات زیستی باشد، جلوگیری کند.

بر پایه گزارش ایمنی OpenAI، مدل‌های جدید این شرکت در مقایسه با نسخه‌های پیشین نظیر o1 و GPT-4، عملکرد دقیق‌تری در پاسخ‌دهی به پرسش‌های فنی در زمینه تهدیدهای زیستی دارند؛ موضوعی که به باور کارشناسان، می‌تواند در صورت عدم کنترل، مخاطرات جدی ایجاد کند.

در راستای آموزش این سامانه نظارتی، تیم‌های ویژه موسوم به Red Team حدود ۱۰۰۰ ساعت صرف ثبت و نشانه‌گذاری گفتگوهای مرتبط با تهدیدهای زیستی کرده‌اند. نتایج آزمایش‌ها نشان می‌دهد مدل‌ها در بیش از ۹۸ درصد موارد از پاسخ به درخواست‌های پرخطر خودداری کرده‌اند. با این حال، OpenAI تأکید کرده که این ارزیابی شامل سناریوهایی که کاربران تلاش می‌کنند با روش‌های جایگزین از سامانه عبور کنند نبوده و در نتیجه، نظارت انسانی همچنان ضروری خواهد بود.

این اقدام OpenAI بخشی از سیاست‌ به‌روزشده این شرکت در قالب چارچوبی با عنوان «آمادگی» است که بر بررسی پیوسته استفاده‌های بالقوه و تهدیدات احتمالی ناشی از مدل‌های هوش مصنوعی تمرکز دارد.

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Red Captcha Characters Below.