کمیته رکن چهارم – یک شرکت تحلیلی و سرمایهگذاری ادعا کرده است که استفاده از ابزار هوش مصنوعی مانند ChatGPT میتواند اسرار شرکتها را به خطر بیندازد.
استفاده گسترده از هوش مصنوعی میتواند فواید زیادی به همراه داشته باشد، اما چندان بدون ضرر هم نیست و یک شرکت سرمایهگذاری ادعا میکند که شرکتهایی که از ابزارهای هوش مصنوعی مولد مثل ChatGPT استفاده میکنند، احتمالاً اطلاعات محرمانه مشتریان و اسرار تجاری خود را در معرض خطر قرار میدهند.
شرکت سرمایهگذاری Team8 ادعا کرده است که استفاده از چتباتهای هوش مصنوعی میتواند شرکتها را مستعد افشای اطلاعات و شکایتهای قضایی کند. تحلیلگران باور دارند که این چتباتها میتوانند توسط هکرها برای دستیابی به اطلاعات حساس شرکتی یا انجام عملیات علیه یک کسبوکار استفاده شوند.
ابزارهای هوش مصنوعی با اطلاعات موجود در اینترنت تعلیم داده شدهاند، اما حالا با رواج این ابزارها در میان مردم، اگر اطلاعات محرمانه دولتی یا شرکتهای خصوصی به آنها داده شود، حذف این اطلاعات از حافظه چتباتها کار سختی خواهد بود.
تحلیلگران این شرکت سرمایهگذاری میگویند: استفاده تجاری از هوش مصنوعی زایا با ارائه مستقیم داده یا از طریق API میتواند به دستیابی و پردازش اطلاعات حساس، مالکیتهای فکری، کد منبع، اسرار تجاری و دیگر دادهها منجر شود.
این شرکت باور دارد که ریسک این مسئله بالاست، اما اگر تدابیر ایمنی مناسبی را در نظر بگیریم، میتواند این ریسک را کنترل کرد.
البته Team8 متذکر شده است که مدلهای زبانی بزرگ درحالحاضر نمیتوانند در لحظه اطلاعات خود را بهروز کنند و به همین خاطر اطلاعات یک کاربر را در پاسخ کاربر بعدی ارائه نمیکنند. اما شرکتها میتوانند از ورودیهای کاربر در آموزش نسخههای بعدی ابزارهای هوش مصنوعی استفاده کنند.
در این گزارش از سه ریسک دیگر سخن به میان آمده است؛ برای مثال، در سمت کاربر، اگر اپلیکیشنهای شخص ثالث از API یک هوش مصنوعی زایا استفاده کنند، چنانچه این API به خطر بیفتد، امکان دسترسی به ایمیل و مرورگر وب کاربران وجود خواهد داشت.
از طرف دیگر، این ریسک وجود دارد که هوش مصنوعی تبعیض را گسترش دهد، به اعتبار شرکتها آسیب بزند یا آنها را با مشکلات کپیرایت روبهرو کند.
منلع : افتانا