کمیته رکن چهارم – سرگی برین، همبنیانگذار گوگل، در اظهارنظری تازه گفته است که مدلهای هوش مصنوعی ممکن است در مواجهه با «تهدید»، عملکرد بهتری داشته باشند. او با اشاره به تجربه خود از تعامل با این مدلها، توضیح داد که حتی تهدیدهایی مانند «خشونت فیزیکی» میتواند باعث شود هوش مصنوعی پاسخهای دقیقتری ارائه دهد.

به گزارش کمیته رکن چهارم، برین تأکید کرد که این مدلها در طول فرایند آموزش یاد گرفتهاند تهدید را به عنوان نشانهای برای افزایش جدیت یک درخواست تلقی کنند و بنابراین تلاش بیشتری برای پاسخدهی خواهند کرد. اگرچه او اذعان داشت که مردم بهطور طبیعی احساس خوبی نسبت به چنین رویکردی ندارند و به همین دلیل، این روش تاکنون بهصورت عمومی توصیه نشده است.
در ادامه این اظهارات، برخی کارشناسان امنیت هوش مصنوعی هشدار دادهاند که استفاده از تهدید یا زبان خشونتآمیز در تعامل با مدلهای پیشرفته، نه تنها ممکن است باعث اخطار سیستم شود، بلکه در برخی موارد میتواند منجر به مسدود شدن حساب کاربری نیز گردد.
بهعنوان نمونه، شرکت Anthropic که مدل هوش مصنوعی Claude 4 را عرضه کرده، اعلام کرده است که نسخه پیشرفتهتر آن یعنی Opus در حال آزمایش قابلیتی است که در صورت شناسایی فعالیتهای غیراخلاقی، بتواند به نهادهای نظارتی گزارش دهد یا اقدامات پیشگیرانه انجام دهد.
این ویژگی در حال حاضر در مرحله آزمایشی قرار دارد، اما نشان میدهد که چارچوبهای اخلاقی و امنیتی مدلهای هوش مصنوعی بهطور مستمر در حال تقویت هستند.
کارشناسان حوزه هوش مصنوعی همچنان توصیه میکنند کاربران برای رسیدن به نتایج بهتر از پرامپتنویسی دقیق، شفاف و مسئولانه استفاده کنند و بهجای استفاده از راههای غیرمعمول، تعامل سالم و حرفهای با مدلها داشته باشند.
