کمیته رکن چهارم – شرکت Anthropic اخیراً برخی از تعهدات داوطلبانه خود را که در همکاری با دولت بایدن برای بررسی سوگیری در هوش مصنوعی پذیرفته بود، بدون اطلاعرسانی رسمی از وبسایت خود حذف کرده است.

به گزارش کمیته رکن چهارم، گروه نظارتی The Midas Project اعلام کرده است که این تعهدات شامل تحقیقات درباره سوگیریهای الگوریتمی و اشتراکگذاری اطلاعات مربوط به مدیریت ریسکهای هوش مصنوعی با دولت آمریکا بوده است. این موارد هفته گذشته از مرکز شفافیت (Transparency Hub) شرکت Anthropic حذف شدهاند.
این تغییرات بدون توضیح رسمی از سوی Anthropic انجام شده است. این شرکت در ابتدا به درخواست رسانهها برای ارائه توضیح واکنشی نشان نداد، اما پس از انتشار گزارشها، در بیانیهای اعلام کرد که همچنان به تعهدات خود پایبند است.
بحث سوگیری در هوش مصنوعی یکی از مسائل بحثبرانگیز در حوزه فناوری است. برخی از پژوهشها نشان دادهاند که الگوریتمهای هوش مصنوعی ممکن است نتایجی ایجاد کنند که بازتابدهنده نابرابریهای اجتماعی باشند. اما منتقدان معتقدند که مقررات سختگیرانه در این زمینه میتواند مانعی برای نوآوری و توسعه فناوری باشد.
در سال ۲۰۲۳، Anthropic به همراه شرکتهایی مانند OpenAI، Google، Microsoft و Meta توافق کرده بود که پیش از انتشار مدلهای هوش مصنوعی، آزمایشهایی برای بررسی امنیت و بیطرفی آنها انجام دهد. اما پس از تغییر دولت در ایالات متحده و بازنگری در برخی سیاستهای نظارتی، برخی شرکتها نیز رویکرد خود را تغییر دادهاند.
بر اساس این گزارش، Anthropic تنها شرکتی نیست که سیاستهای خود را در این زمینه تعدیل کرده است. OpenAI نیز صفحه مربوط به تعهدات خود در زمینه تنوع، برابری و شمول (DEI) را از وبسایت خود حذف کرده است.
برخی تحلیلگران معتقدند که مقررات دولتی در زمینه سوگیری هوش مصنوعی، در حالی که با هدف کاهش نابرابریها اجرا میشوند، میتوانند باعث محدودیت در توسعه فناوری و کاهش رقابت در بازار جهانی شوند. از سوی دیگر، برخی ناظران تأکید دارند که نظارت دولتی بر این حوزه نباید بیش از حد مداخلهگرانه باشد و مانع نوآوری در صنعت هوش مصنوعی شود.
هنوز مشخص نیست که حذف این تعهدات از سوی Anthropic صرفاً یک تصمیم استراتژیک بوده یا تحت تأثیر تغییرات سیاسی در ایالات متحده انجام شده است.
