کمیته رکن چهارم – با توسعهی فناوری تشخیص چهره، نگرانیها بر سر حفظ حریم خصوصی و امنیت اطلاعات افراد افزایش یافته است. حالا صحبتها به خارج از مرزهای فناوری کشیده شده و هر طرف استدلالهای محکمی ارائه میکند.
پیشرفتهای یادگیری ماشین و شبکههای مصنوعی عصبی، سرعت و دقت تشخیص چهره را به سطوح جدیدی رسانده است؛ اما چه تضمینی وجود دارد که این فناوری مورد سوءاستفاده قرار نگیرد؟
تشخیص چهره فناوری جدیدی نیست، اما در چند سال گذشته به دلیل پیشرفتهای هوش مصنوعی، بهسرعت توسعه پیدا کرده است. این فناوری توجه سیلیکون ولی، سازمانهای تبلیغاتی، تولیدکنندگان سختافزار و حتی دولتها را به خود جلب کرده است؛ اما همه از ظهور این فناوری خوشحال نیستند. برای مثال اتحادیهی آزادیهای مدنی آمریکا (ACLU) و ۳۵ گروه حقوقی دیگر در نامهای به مدیرعامل آمازون جف بزوس خواستار توقف ارائه سرویسهای تشخیص چهرهی این شرکت به ادارههای پلیس شدند، زیرا نگراناند از این فناوری علیه معترضان و مهاجران استفاده شود.
تکامل فناوری تشخیص چهره از گذشته تا حال
نسخههای اولیهی این فناوری که قدمت آنها به دههی ۱۹۶۰ بازمیگردد، سنگین و خام بودند. پلیس باید یک پایگاه دادهی تشخیص چهره میساخت و به این منظور یک کاربر انسانی باید مجموعهای از نقاط کلیدی مثل مردمک یا گوشهی چشم را روی تصویر چهرهی هر سوژه مشخص میکرد. در مرحلهی بعد سیستم از این نقاط برای محاسبه و ثبت فاصلهی نشانهها روی چهرهی سوژه استفاده میکرد.
در مرحلهی تشخیص، اپراتور فرآیند نشانهگذاری را روی تصاویر جدید تکرار میکرد و سیستم فاصلهها را با فاصلههای موجود در پایگاه دادهی خود مقایسه میکرد. سپس اپراتور باید سیستم را به گونهای تنظیم میکرد که بتواند نوسانها، چرخش و خم شدن سر سوژه را در نظر بگیرد. امروزه پیشرفتهای صورت گرفته در زمینههای یادگیری ماشین و شبکههای مصنوعی عصبی سرعت و دقت تشخیص چهره را به سطوح جدیدی رسانده است.
در زمینهی بینایی کامپیوتر، امکان درک اشیای مختلف در تصاویر وجود دارد و کارایی سیستمهای تشخیص چهره در کشف عناصر چهره به سطحی رسیده است که بدون نیاز به مداخلهی انسانی یا تصحیح خطا (یا حتی مداخلهی اندک) میتوانند تشخیص درستی را ارائه دهند. با توسعهی فزایندهی محاسبات ابری، قابلیت اتصال فراگیر واینترنت اشیاء میتوان تشخیص چهره را صرفنظر از نتیجهی خوب یا بد آن در دستگاهها و برنامههای مختلف تعبیه کرد.
برای مثال فیسبوک اخیراً از یک ویژگی جدید رونمایی کرده است که با فناوری تشخیص چهره، به کاربران در مورد بارگذاری تصویری که متعلق به آنها است، توسط دیگران هشدار میدهد. به این صورت کاربر میتواند از جعل هویت یا سوءاستفادهی دیگران از تصاویر خود جلوگیری کند و کنترل بیشتری روی اطلاعات هویت خود داشته باشد؛ اما مدافعان حریم خصوصی نگران هستند فیسبوک به عنوان شرکتی که کسبوکار آن با جمعآوری و استخراج دادههای خصوصی رونق پیدا کرده است از این فناوری برای شناسایی اولویتها و علایق کاربر استفاده کند و کاربرها را هدف تبلیغات سفارشی و محتوای دیگر قرار دهد.
فناوری در اختیار مجریان قانون
سازمانهای پلیس و مجری قانون نه تنها در آزمایشگاهها بلکه در خیابانها، مرزها، وسایل نقلیه، دوربینها و عینکها نیز به استفاده از فناوری تشخیص چهرهی پیشرفته علاقهمند هستند. این فناوری به شناسایی مجرمها و قربانیها کمک میکند، برای مثال میتوان به پلیس ولز جنوبی در بریتانیا اشاره کرد که سال گذشته از این فناوری استفاده کرد.
چین با میلیونها دوربین CCTV یا مداربسته، دارای یکی از پیچیدهترین و تهاجمیترین شبکههای تجسس است. این کشور در سالهای گذشته امکان تشخیص چهرهی بلادرنگ (Real-time) را به شبکهی خود اضافه کرد؛ مقامهای مربوطه کارایی سیستم را در یک آزمایش ثابت کردند؛ آنها در این آزمایش توانستند یکی از گزارشگرهای BBC را تنها در هفت دقیقه شناسایی کنند و به شبکه اضافه کنند. در ماه اردیبهشت (آوریل) پلیس چین از این سیستم برای شناسایی و دستگیری یک مظنون به جرائم مالی در کنسرتی با جمعیت بیش از ۵۰٬۰۰۰ نفر استفاده کرد.
در حال حاضر پلیس آمریکا سیستم Amazon Rekognition را در ایالتهای مختلف آزمایش میکند. به گزارش پلیس در ایالتهای واشنگتن و اورگان، صحت نتایج این سیستم ۷۵ درصد است. بر اساس تست جدیدتر همین سرویس مشخص شد ۲۸ عضو کنگرهی ایالت متحده سوابق کیفری دارند. انتظار میرود پلیس اورلاندو در فلوریدا قرارداد آمازون را تمدید نکند.
یکی از بزرگترین نگرانیهای مدافعان و کارشناسان حریم خصوصی، نبود قانونگذاری و سهلانگاری نسبت به استفاده از این فناوری است. بر اساس بررسی گروهی از مدافعان حریم خصوصی در سال ۲۰۱۶ بیش از نصف جمعیت بالغ ایالاتمتحده در معرض ریسک سیستمهای اسکن چهره قرار دارند. آیا میتوان به عدالت و درستکاری پلیس در استفاده از این فناوری اعتماد کرد؟ مروری بر عملکرد فناوری تشخیص چهرهی پلیس بینالملل بریتانیا نشان میدهد ۹۸ درصد از تطبیقهای این سیستم اشتباه بوده است.
این فناوری ماهیتی فرار دارد. عملکرد تشخیص چهره هم درست مثل فناوریهای دیگر یادگیری عمیق، به دادههایی که دریافت میکند یا یاد میگیرد وابسته است و در صورتی که قبلاً نمونههای کافی را ندیده باشد ممکن است نتیجهی نادرست یا ناسازگاری را ارائه دهد. برای مثال، بررسی اخیر روی دو سرویس معروف تحلیل چهرهی IBM ومایکروسافت ثابت کرد هر دو سیستم روی چهرهی آقایان و سفیدپوستان دقیقتر از چهرهی خانمها و تیرهپوستان عمل میکنند.
آیندهی تشخیص چهره
اخیراً برد اسمیت، یکی از مدیران مایکروسافت مقالهای را در مورد فرصتها و چالشهای فناوری تشخیص چهره و مسیر آیندهی این صنعت نوشته است. اسمیت نگرانیهای اخیر در مورد سوءاستفادهی احتمالی از تشخیص چهره را تأیید میکند اما درعینحال ابعاد و کاربردهای مثبت آن را هم یادآوری میکند.
اخیراً در مایکروسافت بحث در مورد کار با قانون گمرک و مهاجرت (ICE) بالا گرفته است؛ بیش از ۱۰۰ کارمند درخواست لغو قرارداد با ICE (میانجی طرح جداسازی کودکان در مرزها) را با مدیریت مطرح کردند. ICE از سرویس ابری Azure Government استفاده میکند. این سرویس با فناوری تشخیص چهره کار نمیکند اما اقدامات انجام شده، نیاز به قانونگذاری در مورد فناوری تشخیص چهره و فناوریهایی از این قبیل را اثبات میکند. اسمیت میگوید:
شاید برای یک شرکت عجیب به نظر برسد که به دنبال قانون و مقررات دولتی برای محصولات خود باشد، اما در بسیاری از بازارها، مقررات صحیح میتواند به فعالیت سالمتر تولیدکننده و مصرفکننده کمک کند. اسمیت در ادامه صنایع خودروسازی را مثال میزند که مقررات و استانداردهایی را برای امنیت مسافرها درنظر گرفته است.
اسمیت به نقش سازمانهای فناوری در کاهش ریسک انحراف فناوری تشخیص چهره اشاره میکند و برای جلوگیری از نقض حقوق اولیهی انسانها، درنظر گرفتن و اعمال راهبردهای اخلاقی را ضروری میداند. او مینویسد:
سریع حرکت کن و همه چیز را بشکن به یک شعار در سیلیکون ولی تبدیل شده است؛ اما حرکت سریع فناوری تشخیص چهره میتواند حقوق اولیهی انسانها را بشکند و نقص کند.
قطعاً تشخیص چهره فناوری قدرتمندی است اما قدرت میتواند در دو مسیر خوب یا بد پیش برود. به گفتهی اسمیت میتوان از هر ابزاری استفادهی خوب یا بد کرد. حتی میتوان از یک جارو برای تمیز کردن زمین یا ضربه زدن به سر یک شخص استفاده کرد. هرچقدر ابزاری قدرتمندتر باشد، مزیت یا خسارتی که به بار میآورد شدیدتر خواهد بود.