مقابله با هوش مصنوعی تبعیض آمیز

کمیته رکن چهارم – گروه های حقوق بشر آمریکایی نسبت به ایجاد رویکرد بازار آزاد دونالد ترامپ در حوزه هوش مصنوعی واکنش نشان دادند.

 به نقل از «futurism»؛ دونالد ترامپ در تاریخ ۱۰ مِی، به منظور تشکیل یک کارگروه جدید هوش مصنوعی، نشستی را با مدیران فناوری آمریکا برگزار کرد. همچنین با توجه به سند انتشار یافته، مشخص شد، وی خود را به عنوان مشاور ارشد هوش مصنوعی دفتر ریاست جمهوری انتخاب کرده است.

ترامپ همچنین اعلام کرد تا زمانی که حادثه ای رخ ندهد، تلاشی برای متوقف کردن آن نمی کند. از طرفی کارآفرینان و شرکت های فناوری تا حد امکان آزاد هستند فناوری های بزرگ بعدی خود را توسعه دهند. وی احتمالا قصد دارد با توجه به موارد بالا رویکرد یک بازار آزاد در این حوزه را در پیش بگیرد؛ اما تعدادی از متخصصان با اقدام مذکور مخالفت کرده معتقدند باید در برابر الگوریتم های تبعیض آمیز، از مردم محافظت کرد.

تعدادی از گروه های حقوق بشر مانند « Human Rights Watch »، « Amnesty International»، « Wikimedia Foundation » و «Access Now»، از دولت و شرکت های فناوری آمریکا خواهستند با قبول اصول، از حقوق بشر محافظت کنند.

در زمان برگزاری نشست «رایتزکان تورنتو» (RightsCon Toronto)، تعدادی از سازمان های بالا به «Toronto Declaration on Machine Learning» پیوستند. هدف این اعلامیه، حفاظت از حقوق یکسان مردم و عدم تبعیض در سامانه های یادگیری ماشینی است.

گروه مذکور، از مهندسین می خواهد الگوریتم ها را توسعه داده، مجددا طراحی کنند. این کار با هدف افزایش شفافیت و برابری انجام می گیرد تا نژاد پرستی و تبعیض موجود در نمونه های فعلی از میان برود.

البته الگوریتم های یادگیری ماشینی می توانند مزایای بسیاری ارائه بدهند؛ اما عملکرد آنها کاملا به داده هایی که با آن تغذیه می شوند وابسته است. این اطلاعات نیز ممکن است تبعیض آمیز بوده، باعث ایجاد نابرابری گردد. در نتیجه ممکن است در هنگام تحقیقات پلیس یا بررسی شرایط وام گیرندگان، همه ی افراد به صورت یکسان درنظر گرفته نشوند.

برای مثال در گذشته گزارش هایی منتشر شده بودند که ادعا می کنند، هم اینک نیز در بعضی از ایالت های آمریکا، بخشی از پرونده های قضایی را هوش مصنوعی داوری می کند؛ اما الگوریتم های به کار رفته در این سامانه نسبت به سیاه پوستان تبعیض قائل می شود.

در سند ارائه شده توسط گروه بالا که بر اساس قوانین حقوق بشر به وجود آمده، پیشنهاد شده است؛ افرادی که مورد تبعیض هوش مصنوعی قرار می گیرند باید خسارت دریافت کنند.

اعلامیه ی مذکور بیان می کند:

الگوریتم های تبعیض ساختاری موجود ممکن است باز تولید شده، گسترش پیدا کنند. برای مثال هدف سامانه های یادگیری ماشینی، ایجاد نشانه ها موفقیت و تقویت الگوهای نابراری است. همچنین موضوع ممکن است به علت داده های نامناسب نیز به وجود آید. همه ی بازیگران این عرصه، خصوصی یا دولتی، پیش از راه اندازی چنین سامانه هایی، باید خطرات جلوی طراحی و توسعه ی نمونه های تبعیض آمیز را گرفته و خطرات آن را کاهش دهند. باید از عملکرد مناسب الگوریتم ها در طول چرخه ی حیات آن اطمینان حاصل شود.

منبع : سایبربان

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Green Captcha Characters Below.