کمیته رکن چهارم – ChatGPT این مجری را به دریافت اختلاس متهم کرده است و اکنون او به دنبال دریافت خسارت مالی نامشخصی از OpenAI است.
OpenAI به دلیل اطلاعات نادرستی که توسط هوش مصنوعی ChatGPT ارائه شده است، با اولین شکایت در مورد افترا و بدنامسازی مواجه شده است.
یک مجری رادیویی به نام «مارک والترز»، پس از اینکه ChatGPT به نادرستی اعلام کرد او به کلاهبرداری و اختلاس از یک سازمان غیرانتفاعی متهم شده، از OpenAI شکایت کرد. ChatGPT پاسخ خود را به درخواست یک روزنامهنگار به نام «فرد ریهل» ارائه کرده و اکنون والترز با ثبت شکایت خود در دادگاه عالی جورجیا، به دنبال دریافت خسارت مالی نامشخصی از OpenAI است.
در این پرونده آمده است که ریهل از ChatGPT درخواست کرده تا یک پرونده دادگاه فدرال را خلاصه کند. هوش مصنوعی OpenAI خلاصهای از پرونده را ارائه کرد که هرچند مفصل و قانع کننده بود، اما چندین جنبه اشتباه مانند ادعاهای نادرستی علیه والترز در آن وجود داشت.
در توضیحات ارائهشده توسط ChatGPT آمده است که والترز از یک سازمان غیرانتفاعی حق نگهداری و حمل سلاح به نام Second Amendment Foundation «بیش از ۵ میلیون دلار» اختلاس کرده، درصورتیکه والترز هرگز به چنین چیزی متهم نشده است.
در چند وقت گذشته شکایات گستردهای در مورد اطلاعات نادرست تولیدشده توسط ChatGPT و سایر چتباتها ارائه شده و این مورد به همین دلیل مورد توجه زیادی قرار گرفته است. درواقع چتباتها هیچ راه قابل اعتمادی برای تشخیص واقعیت از تخیل ندارند و هنگامی که از آنها درباره برخی اطلاعات سؤال شود (بهویژه زمانی که خواسته شود حقیقتی را تأیید کنند)، در برخی موارد تاریخها، حقایق و ارقام نادرستی را جعل میکنند.
هرچند OpenAI در صفحه اصلی ChatGPT هشدار داده که سیستم آنها «ممکن است گاهی اوقات اطلاعات نادرستی تولید کند»، اما این شرکت، همچنین از مدل هوش مصنوعی خود بهعنوان منبعی با دادههای قابل اعتماد یاد کرده و در تبلیغاتش آن را بهعنوان راهی برای «دریافت پاسخ» و «یادگیری» توصیف کرده است. «سم آلتمن»، مدیرعامل OpenAI نیز بارها گفته است که ترجیح میدهد اطلاعات جدید را از ChatGPT یاد بگیرد تا از کتابها.
بااینوجود، باید دید که OpenAI نسبت به این شکایت چه واکنشی نشان میدهد و همچنین دادگاه چه حکمی را صادر خواهد کرد.
منبع : دیجیاتو