کمیته رکن چهارم – کارشناسان هشدار میدهند که استفاده تبلیغاتی از واژه «متنباز» برای مدلهای هوش مصنوعی، در حالی که اطلاعات مهم آنها منتشر نمیشود، میتواند باعث مشکلات جدی اخلاقی و فنی در آینده شود.
به گزارش کمیته رکن چهارم، بسیاری از شرکتهای بزرگ فناوری مدلهای هوش مصنوعی خود را «متنباز» معرفی میکنند، اما بررسیها نشان میدهد که در بسیاری موارد، فقط بخش کوچکی از اطلاعات این مدلها منتشر میشود و بخشهای مهمی مانند دادههای آموزشی، روش آموزش و جزئیات فنی پنهان میماند. به گفته کارشناسان، این کار میتواند باعث سردرگمی کاربران شود و اعتماد مردم به هوش مصنوعی را از بین ببرد.
یک منبع آگاه در دانشگاه میشیگان که نخواست نامش فاش شود، به کمیته رکن چهارم گفت: «در یک مورد خاص به نام LAION 5B، فقط بهخاطر اینکه دادهها متنباز بودند، کاربران توانستند محتوای خطرناک را شناسایی کنند. اگر این دادهها مانند خیلی از مدلهای امروزی بسته بود، ممکن بود هیچکس متوجه نشود.»
در این گزارش آمده است که متنباز بودن واقعی یعنی همه اطلاعات مهم مربوط به مدل — از جمله کدها، دادهها، روش آموزش و تنظیمات — باید در اختیار عموم قرار گیرد. در غیر این صورت، فقط با نوعی شفافیت ناقص روبهرو هستیم که بیشتر برای تبلیغات استفاده میشود.
برای مثال، شرکت Meta مدل Llama را متنباز معرفی کرده، ولی فقط دادههای آموزشدیده مدل را منتشر کرده و هیچ اطلاعاتی از دادههای آموزشی یا کدهای آموزشی نداده است. در مقابل، شرکتهایی مانند DeepSeek با مدل R1، اطلاعات بیشتری را در اختیار جامعه علمی و کاربران قرار دادهاند.
بر اساس مطالعهای از شرکت IBM، استفاده از ابزارهای واقعاً متنباز در حوزه هوش مصنوعی باعث توسعه سریعتر و هزینه کمتر شده و همچنین امکان بررسی رفتار مدلها از نظر اخلاقی و فنی را فراهم میکند.
کارشناسان تأکید میکنند که اگر استاندارد مشخصی برای متنباز بودن وجود نداشته باشد، این مفهوم کمکم اعتبار خود را از دست میدهد و مردم دیگر به ادعاهای شرکتها اعتماد نخواهند کرد. به گفته آنها، شرکتهای فناوری باید با شفافیت بیشتر همکاری کنند و همه اطلاعات لازم را منتشر کنند تا از سوءاستفاده جلوگیری شود.
در پایان این گزارش آمده است که آینده هوش مصنوعی باید شفاف، اخلاقی و مشارکتی باشد؛ نه انحصاری و بسته.