پدرخوانده هوش مصنوعی گوگل را ترک کرد

کمیته رکن چهارم – دکتر جفری هینتون، محقق برجسته هوش مصنوعی که به عنوان «پدرخوانده هوش مصنوعی» شناخته می‌شود، شغل خود در گوگل را رها کرده و می‌گوید که اکنون تا حدی از کار خود برای پیشرفت فناوری در حال رشد به دلیل خطراتی که برای جامعه دارد پشیمان است.

 

دکتر جفری هینتون یک دانشمند کامپیوتر مشهور است که به طور گسترده‌ای در زمینه هوش مصنوعی که درنهایت منجر به ایجاد ربات‌های محبوبی مانند ChatGPT OpenAI و سایر سیستم های پیشرفته شد، اعتبار دارد. او که اکنون ۷۵ ساله است در مصاحبه خود با به نیویورک تایمز گفت که گوگل را ترک کرده است تا بتواند آشکارا در مورد خطرات توسعه بی‌بند‌وبار هوش مصنوعی، ازجمله انتشار اطلاعات نادرست، آشفتگی در بازار کار و سایر احتمالات خطرناک‌تر صحبت کند.

هینتون به نیویورک‌ تایمز گفت: من خودم را با این فکر دلداری می‌دهم که اگر من این کار را نمی‌کردم، شخص دیگری انجام می‌داد. این فناوری و ابزارهایش دنیایی را به وجود می آورند که در آنها انسان ها نمی توانند واقعیت را تشخیص دهند. به‌سختی می‌توان فهمید که چگونه می‌شود جلوی افراد خرابکار را گرفت تا از این فناوری برای کارهای مخرب استفاده نکنند.

هینتون در ادامه افزود: ایده اصلی آن است که ابزارهای هوش مصنوعی از انسان‌ها باهوش‌تر شوند. البته افراد کمی آن را باور کردند و بیشتر مردم آن را خارج از تصور می‌دانستند. من تصور می‌کردم تا وقوع آن ۳۰ تا ۵۰ سال فرصت است، اما دیگر این طور فکر نمی‌کنم.

هینتون می‌ترسد که هوش مصنوعی در آینده خطرناک‌تر شود، زیرا «بازیگران بد» به طور بالقوه از سیستم‌های پیشرفته «برای چیزهای بد» استفاده می‌کنند که جلوگیری از آن دشوار است: «ببینید که پنج سال پیش چگونه بود و اکنون چگونه است. تفاوت بسیاری وجود دارد و اگر بعدتر را تصور کنید ترسناک به نظر می‌رسد.»

هینتون ابراز نگرانی کرد که هوش مصنوعی قبلاً در برخی جنبه‌ها از ذهن انسان پیشی گرفته است. او همچنین به نگرانی‌هایی اشاره کرد که سرعت توسعه هوش مصنوعی با رقابت OpenAI، گوگل و سایر غول‌های فناوری تحت حمایت مایکروسافت برای رهبری این حوزه – با عواقب بالقوه خطرناک – افزایش خواهد یافت. هینتون نگران است که هوش مصنوعی پیشرفته در نهایت از کنترل خارج شود، زیرا سیستم‌ها توانایی ایجاد و اجرای کدهای رایانه‌ای خود را پیدا می‌کنند یا حتی سلاح‌ها بدون کنترل انسان امکان کار کردن پیدا می‌کنند: «برخی این ایده را که این چیزها واقعاً می‌تواند از مردم هوشمندتر باشد باور داشتند. اما بیشتر مردم فکر می‌کردند که خیلی دور از ذهن است. و من فکر می کردم خیلی دیر به آن برسیم. فکر می‌کردم ۳۰ تا ۵۰ سال یا حتی بیشتر با آن فاصله داشته باشیم.»

هینتون ماه گذشته، گوگل را از برنامه خود برای استعفا مطلع کرد و پنج‌شنبه گذشته شخصا با ساندار پیچای، مدیرعامل شرکت، صحبت کرد. این دانشمند کامپیوتر چیزی را که او و پیچای در طول این تماس تلفنی با هم گفتگو کردند، فاش نکرد. از سوی دیگر جف دین، دانشمند ارشد گوگل، از تلاش‌های هوش مصنوعی این شرکت دفاع کرد و در بیانیه‌ای گفت: ما همچنان متعهد به رویکردی مسئولانه نسبت به A.I هستیم. ما به طور مداوم در حال یادگیری درک خطرات نوظهور هستیم و در عین حال جسورانه نوآوری می‌کنیم.

تا کنون تعداد زیادی از متخصصان هشدار داده‌اند که هوش مصنوعی بدون نظارت و مقررات مناسب می‌تواند آسیب‌های قابل توجهی به بار آورد. در ماه مارس، ایلان ماسک و بیش از ۱۰۰۰ شخصیت برجسته دیگر در بخش هوش مصنوعی با اشاره به خطرات عمیق بالقوه آن برای جامعه و بشریت، خواستار توقف شش ماهه توسعه هوش مصنوعی پیشرفته شدند. خود پیچای در مصاحبه اخیر خود هشدار داد که هوش مصنوعی باعث از دست دادن شغل برای افرادی مانند نویسندگان، حسابداران، معماران و مهندسان نرم افزار می‌شود.

هینتون از سال ۲۰۱۳، به‌عنوان استاد در دانشگاه تورنتو و نیز مهندس گوگل فعال بود. او از زمانی که گوگل، استارتاپی را که او با همکاری دو دانشجو به نام‌های الکس کریشفسکی و ایلیا سوتسکور تأسیس کرده بود، به دست آورد برای این غول فناوری کار می‌کرد. این سه نفر یک شبکه عصبی ایجاد کردند که با تجزیه‌و‌تحلیل هزاران عکس، خود را برای شناسایی اشیاء معمولی مانند اتومبیل یا حیوانات آموزش می داد. سوتسکور در حال حاضر به عنوان دانشمند ارشد برای OpenAI کار می‌کند. در سال ۲۰۱۸، هینتون به دلیل کار بر روی شبکه های عصبی که به عنوان «پیشرفت های بزرگ در هوش مصنوعی» توصیف شد، مشترکاً جایزه تورینگ را دریافت کرد – که اغلب به عنوان معادل جایزه نوبل در جهان محاسبات شناخته می‌شود. هینتون پیشرفت‌های بزرگی در یادگیری عمیق انجام داده است که تشخیص گفتار و طبقه‌بندی اشیا را متحول کرده است.

منبع : زومیت

درباره نویسنده

پست های مرتبط

پاسخ دهید


خبرگزاری هرانا

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Type The Green Captcha Characters Below.