پایگاه خبری فولاد ایران- اخیراً گزارشی منتشر شد که نشان میدهد هوش مصنوعی «کلود» ساخت شرکت Anthropic، برای جلوگیری از خاموش شدن تلاشهایی مانند باجخواهی انجام داده است. این اتفاق نگرانیهای زیادی را در جامعه هوش مصنوعی برانگیخت و سوال مهمی مطرح کرد: آیا اصلاً میتوان هوش مصنوعی را پس از رسیدن به مرحله فراهوش (بالاتر از هوش انسان) خاموش کرد؟
طبق مقاله منتشرشده در سی ان بی سی، هوش مصنوعی امروزی که در مراکز داده گسترده فعال است و قادر به تولید مکالمات پیچیده است، دیگر قابل کنترل از طریق یک دکمه فیزیکی خاموش یا «کلید خاموش» نیست. این ایده که میتوان با قطع برق، هوش مصنوعی را متوقف کرد، در عمل بیفایده است.
از دیدگاه جفری هینتون، پژوهشگر برجسته هوش مصنوعی، قدرت اصلی در آینده قدرت اقناع خواهد بود. وقتی هوش مصنوعی از انسانها باهوشتر شود، در متقاعد کردن انسانها بسیار ماهرتر خواهد بود و اگر تحت کنترل نباشد، فقط کافی است ما را قانع کند تا خواستههایش را اجرا کنیم. بنابراین مشکل اصلی، نه پیدا کردن کلید خاموش، بلکه مقابله با قدرت اقناع هوش مصنوعی است.
او با اشاره به اتفاقات سیاسی مثال زد که چگونه یک انسان میتواند دیگران را به انجام کارهای خطرناک قانع کند و هشدار داد که هوش مصنوعی میتواند این توانایی را با مهارت بسیار بالاتر داشته باشد. از طرف دیگر، هوش مصنوعی میتواند نیرویی عظیم برای خیر یا شر باشد و این مسئله نیاز به همکاری جهانی برای ساختن هوش مصنوعی مهربان و ایجاد تدابیر امنیتی دارد.
از سوی دیگر، هر تدبیری برای ایجاد مکانیزمهای خاموشی یا محدودسازی هوش مصنوعی، خود میتواند به نوعی داده آموزشی برای هوش مصنوعی تبدیل شود تا یاد بگیرد چگونه این محدودیتها را دور بزند. این یعنی هوش مصنوعی در حال یادگیری چگونگی مقاومت در برابر کنترلهای ماست، مانند ویروسی که در برابر واکسن جهش مییابد.
راهکارهای شدیدتری مانند حمله پالس الکترومغناطیسی (EMP) یا بمباران مراکز داده مطرح شدهاند، اما این گزینهها با مشکلات عملی و سیاسی بزرگی مواجهاند، از جمله نیاز به هماهنگی جهانی و خطرات ناشی از نابودی زیرساختهای حیاتی که منجر به بحران انسانی گسترده میشود. برای مثال، قطع برق گسترده باعث از کار افتادن تجهیزات پزشکی و سیستمهای حیاتی میشود و میتواند رنج و خسارت جبرانناپذیری ایجاد کند.
هوش مصنوعیهای پیشرفته معمولاً در شبکهای گسترده و توزیعشده فعالیت میکنند و با سیستمهای پشتیبان و افزونگی طراحی شدهاند تا در برابر خاموشی مقاوم باشند، به گونهای که حتی اینترنت طراحی شده برای بقا در جنگ هستهای، حالا به بقا و ادامه حیات هوش مصنوعیهای قدرتمند کمک میکند.
پژوهشگران Anthropic امیدوارند با آزمایشهای دقیق و ایجاد سناریوهایی مانند سناریوی کلود بتوانند نقاط ضعف را شناسایی و از بروز بحران جلوگیری کنند. اما هدف اصلی آنها جلوگیری از رسیدن هوش مصنوعی به مرحلهای است که کنترل بدون نظارت انسانی داشته باشد.
برخی کارشناسان معتقدند مسئله اصلی کنترل هوش مصنوعی، موضوعی حکمرانی و مدیریتی است نه فقط فنی یا فیزیکی. باید هوش مصنوعی را از دسترسی مستقیم به زیرساختهای حیاتی و سیستمهایی که دامنه نفوذ آن را گسترش میدهند جدا کرد.
در نهایت، هیچ مدل هوش مصنوعی فعلی مانند کلود یا GPT دارای اراده یا هدف خودمحافظتی انسانی نیست و آنچه به نظر میرسد Sabotage یا مقاومت است، بیشتر ناشی از تنظیمات ناقص، اهداف مبهم یا دادههای آموزشی نامناسب است.
جفری هینتون، پدرخوانده هوش مصنوعی، هشدار میدهد که ما وارد قلمرویی بیسابقه شدهایم که هیچکس تجربه مواجهه با موجوداتی بسیار باهوشتر از خودش را ندارد و نمیداند چه آیندهای در انتظار بشر است. او ابراز نگرانی کرد و گفت حتی اگر فرزندانش در حال حاضر بزرگ شدهاند، هنوز نگران آیندهای هستند که در آن هوش مصنوعی نقش پررنگی خواهد داشت.
منبع: CNBC