آیا هوش مصنوعی با تهدید دقیق‌تر می‌شود؟

کمیته رکن چهارم – سرگی برین، هم‌بنیان‌گذار گوگل، در اظهارنظری تازه گفته است که مدل‌های هوش مصنوعی ممکن است در مواجهه با «تهدید»، عملکرد بهتری داشته باشند. او با اشاره به تجربه خود از تعامل با این مدل‌ها، توضیح داد که حتی تهدیدهایی مانند «خشونت فیزیکی» می‌تواند باعث شود هوش مصنوعی پاسخ‌های دقیق‌تری ارائه دهد.

به گزارش کمیته رکن چهارم، برین تأکید کرد که این مدل‌ها در طول فرایند آموزش یاد گرفته‌اند تهدید را به عنوان نشانه‌ای برای افزایش جدیت یک درخواست تلقی کنند و بنابراین تلاش بیشتری برای پاسخ‌دهی خواهند کرد. اگرچه او اذعان داشت که مردم به‌طور طبیعی احساس خوبی نسبت به چنین رویکردی ندارند و به همین دلیل، این روش تاکنون به‌صورت عمومی توصیه نشده است.

در ادامه این اظهارات، برخی کارشناسان امنیت هوش مصنوعی هشدار داده‌اند که استفاده از تهدید یا زبان خشونت‌آمیز در تعامل با مدل‌های پیشرفته، نه تنها ممکن است باعث اخطار سیستم شود، بلکه در برخی موارد می‌تواند منجر به مسدود شدن حساب کاربری نیز گردد.

به‌عنوان نمونه، شرکت Anthropic که مدل هوش مصنوعی Claude 4 را عرضه کرده، اعلام کرده است که نسخه پیشرفته‌تر آن یعنی Opus در حال آزمایش قابلیتی است که در صورت شناسایی فعالیت‌های غیراخلاقی، بتواند به نهادهای نظارتی گزارش دهد یا اقدامات پیشگیرانه انجام دهد.

این ویژگی در حال حاضر در مرحله آزمایشی قرار دارد، اما نشان می‌دهد که چارچوب‌های اخلاقی و امنیتی مدل‌های هوش مصنوعی به‌طور مستمر در حال تقویت هستند.

کارشناسان حوزه هوش مصنوعی همچنان توصیه می‌کنند کاربران برای رسیدن به نتایج بهتر از پرامپت‌نویسی دقیق، شفاف و مسئولانه استفاده کنند و به‌جای استفاده از راه‌های غیرمعمول، تعامل سالم و حرفه‌ای با مدل‌ها داشته باشند.

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Red Captcha Characters Below.