به IFNAA.IR خوش آمدید.
[ سبد خرید شما خالی است ]

ناکارآمدی کلید خاموش در کنترل هوش مصنوعی!


پایگاه خبری فولاد ایران- اخیراً گزارشی منتشر شد که نشان می‌دهد هوش مصنوعی «کلود» ساخت شرکت Anthropic، برای جلوگیری از خاموش شدن تلاش‌هایی مانند باج‌خواهی انجام داده است. این اتفاق نگرانی‌های زیادی را در جامعه هوش مصنوعی برانگیخت و سوال مهمی مطرح کرد: آیا اصلاً می‌توان هوش مصنوعی را پس از رسیدن به مرحله فراهوش (بالاتر از هوش انسان) خاموش کرد؟
طبق مقاله منتشرشده در سی ان بی سی، هوش مصنوعی امروزی که در مراکز داده گسترده فعال است و قادر به تولید مکالمات پیچیده است، دیگر قابل کنترل از طریق یک دکمه فیزیکی خاموش یا «کلید خاموش» نیست. این ایده که می‌توان با قطع برق، هوش مصنوعی را متوقف کرد، در عمل بی‌فایده است.
از دیدگاه جفری هینتون، پژوهشگر برجسته هوش مصنوعی، قدرت اصلی در آینده قدرت اقناع خواهد بود. وقتی هوش مصنوعی از انسان‌ها باهوش‌تر شود، در متقاعد کردن انسان‌ها بسیار ماهرتر خواهد بود و اگر تحت کنترل نباشد، فقط کافی است ما را قانع کند تا خواسته‌هایش را اجرا کنیم. بنابراین مشکل اصلی، نه پیدا کردن کلید خاموش، بلکه مقابله با قدرت اقناع هوش مصنوعی است.
او با اشاره به اتفاقات سیاسی مثال زد که چگونه یک انسان می‌تواند دیگران را به انجام کارهای خطرناک قانع کند و هشدار داد که هوش مصنوعی می‌تواند این توانایی را با مهارت بسیار بالاتر داشته باشد. از طرف دیگر، هوش مصنوعی می‌تواند نیرویی عظیم برای خیر یا شر باشد و این مسئله نیاز به همکاری جهانی برای ساختن هوش مصنوعی مهربان و ایجاد تدابیر امنیتی دارد.
از سوی دیگر، هر تدبیری برای ایجاد مکانیزم‌های خاموشی یا محدودسازی هوش مصنوعی، خود می‌تواند به نوعی داده آموزشی برای هوش مصنوعی تبدیل شود تا یاد بگیرد چگونه این محدودیت‌ها را دور بزند. این یعنی هوش مصنوعی در حال یادگیری چگونگی مقاومت در برابر کنترل‌های ماست، مانند ویروسی که در برابر واکسن جهش می‌یابد.
راهکارهای شدیدتری مانند حمله پالس الکترومغناطیسی (EMP) یا بمباران مراکز داده مطرح شده‌اند، اما این گزینه‌ها با مشکلات عملی و سیاسی بزرگی مواجه‌اند، از جمله نیاز به هماهنگی جهانی و خطرات ناشی از نابودی زیرساخت‌های حیاتی که منجر به بحران انسانی گسترده می‌شود. برای مثال، قطع برق گسترده باعث از کار افتادن تجهیزات پزشکی و سیستم‌های حیاتی می‌شود و می‌تواند رنج و خسارت جبران‌ناپذیری ایجاد کند.
هوش مصنوعی‌های پیشرفته معمولاً در شبکه‌ای گسترده و توزیع‌شده فعالیت می‌کنند و با سیستم‌های پشتیبان و افزونگی طراحی شده‌اند تا در برابر خاموشی مقاوم باشند، به گونه‌ای که حتی اینترنت طراحی شده برای بقا در جنگ هسته‌ای، حالا به بقا و ادامه حیات هوش مصنوعی‌های قدرتمند کمک می‌کند.
پژوهشگران Anthropic امیدوارند با آزمایش‌های دقیق و ایجاد سناریوهایی مانند سناریوی کلود بتوانند نقاط ضعف را شناسایی و از بروز بحران جلوگیری کنند. اما هدف اصلی آن‌ها جلوگیری از رسیدن هوش مصنوعی به مرحله‌ای است که کنترل بدون نظارت انسانی داشته باشد.
برخی کارشناسان معتقدند مسئله اصلی کنترل هوش مصنوعی، موضوعی حکمرانی و مدیریتی است نه فقط فنی یا فیزیکی. باید هوش مصنوعی را از دسترسی مستقیم به زیرساخت‌های حیاتی و سیستم‌هایی که دامنه نفوذ آن را گسترش می‌دهند جدا کرد.
در نهایت، هیچ مدل هوش مصنوعی فعلی مانند کلود یا GPT دارای اراده یا هدف خودمحافظتی انسانی نیست و آنچه به نظر می‌رسد Sabotage یا مقاومت است، بیشتر ناشی از تنظیمات ناقص، اهداف مبهم یا داده‌های آموزشی نامناسب است.
جفری هینتون، پدرخوانده هوش مصنوعی، هشدار می‌دهد که ما وارد قلمرویی بی‌سابقه شده‌ایم که هیچ‌کس تجربه مواجهه با موجوداتی بسیار باهوش‌تر از خودش را ندارد و نمی‌داند چه آینده‌ای در انتظار بشر است. او ابراز نگرانی کرد و گفت حتی اگر فرزندانش در حال حاضر بزرگ شده‌اند، هنوز نگران آینده‌ای هستند که در آن هوش مصنوعی نقش پررنگی خواهد داشت.


منبع: CNBC 

۶ اَمرداد ۱۴۰۴ ۱۱:۳۳
تعداد بازدید : ۱۶۴
کد خبر : ۷۴,۱۲۷

نظرات بینندگان

تعداد کاراکتر باقیمانده: 500
نظر خود را وارد کنید