پایگاه خبری فولاد ایران - پژوهشگران هشدار میدهند که پنهانکاری گسترده در حوزه هوش مصنوعی میتواند رقابت بین کشورها را تشدید کند و به توسعه خطرناک فناوری منجر شود. به گفته آنها، تاریخ نشان داده است که محدود کردن دانش همیشه محرک پیشرفت بوده و پنهانکاری مطلق باعث شتاب گرفتن رقابت و افزایش خطر میشود.
در گزارش نیوزویک آمده، در یادآوری تجربه تاریخی، نویسندگان اشاره میکنند که در دوران جنگ جهانی دوم، فیزیکدان دانمارکی نیلز بور پیشنهاد کرد به جای مخفی کردن بمب اتم، به شوروی اطلاع داده شود تا با شفافیت، از رقابت تسلیحاتی جلوگیری شود. اما تصمیم آمریکا پس از جنگ، محرمانه اعلام کردن دانش اتمی بود که در نهایت منجر به گسترش تسلیحات هستهای شد.
هشتاد سال بعد، مدلهای هوش مصنوعی به عنوان رازهای جدید ظاهر شدهاند. برخلاف سلاحهای هستهای، این فناوری محدود به مکان و ماده نیست و کدها میتوانند سریعاً تکثیر و منتشر شوند. نویسندگان میگویند امروز آمریکا و چین در رقابت تسلیحاتی هوش مصنوعی هستند و هر دو در تلاشند بهترین الگوریتمها، تراشهها و نخبگان را برای خود حفظ کنند. نمونههایی مانند مدل LLaMA شرکت Meta و DeepSeek چین نشان میدهند که محدودیتها نمیتوانند مانع از تکثیر فناوری شوند.
برای مقابله با خطرات ناشی از پنهانکاری، نویسندگان پیشنهاد میکنند یک سیستم «اشتراک جزئی» ایجاد شود. این طرح شامل چهار محور اصلی است:
1. صراحت در تواناییها: سازندگان مدلها باید شفاف توضیح دهند مدل چه کاری میتواند انجام دهد و در چه شرایطی شکست میخورد.
2. ایجاد بستر مشترک نظارت بینالمللی: آزمایشگاهها و زیرساختهای مشترک برای بازتولید نتایج و ثبت حوادث ایجاد شود.
3. تمرکز بر اهرمهای واقعی کنترل: بخشهای حساس مانند وزنهای مدل و الگوریتمها تحت مراقبت باشند، اما روشهای حکمرانی شفاف و عمومی باشد.
4. ترویج مدلهای متنباز: ایجاد پایه مشترک برای همه توسعهدهندگان و جلوگیری از ایجاد پناهگاه برای سوءاستفاده.
نویسندگان در پایان تأکید کردند:
«پنهانکاری مانند کیسهی شن در برابر سیل است، زمان میخرد، اما سد نیست.»
آنها بر این باورند که شفافیت و اشتراک کنترل شده، کلید امنیت و توسعه پایدار هوش مصنوعی در عصر تکثیر سریع دانش است.
منبع: Newsweek