به IFNAA.IR خوش آمدید.
[ سبد خرید شما خالی است ]

مشکل هوش مصنوعی و همدلی


پایگاه خبری فولاد ایران
- در ماه‌های اخیر مطالعات و آزمایش‌هایی منتشر شده‌اند که نشان می‌دهند پاسخ‌های تولیدشده توسط هوش مصنوعی، به‌ویژه مدل‌های زبان بزرگ، در آزمون‌های مربوط به همدلی و هوش هیجانی نمره‌هایی بالاتر از پاسخ‌های انسانی می‌گیرند. طبق گزارش فایننشال تایمز، در برخی موارد، کاربران پاسخ‌های چت‌بات‌ها را همدلانه‌تر از پاسخ پزشکان یا درمانگران واقعی ارزیابی کرده‌اند. این نتایج باعث شکل‌گیری این تصور شده که هوش مصنوعی نه‌تنها در تحلیل و استدلال، بلکه در حوزهٔ احساسات انسانی نیز به سطحی پیشرفته رسیده است.
اما این برداشت، بنیادی نادرست است. همدلی واقعی مستلزم تجربهٔ احساس، توانایی شریک شدن در رنج یا شادی دیگری و داشتن آگاهی عاطفی است؛ ویژگی‌هایی که هوش مصنوعی اساساً فاقد آن‌هاست. آنچه مدل‌های زبانی انجام می‌دهند، تشخیص الگوهای زبانی و تولید پاسخ‌هایی است که از نظر آماری شبیه پاسخ‌های همدلانهٔ انسان‌ها به نظر می‌رسند، نه درک یا تجربهٔ واقعی احساسات.
دلیل اینکه بسیاری از افراد پاسخ‌های هوش مصنوعی را همدلانه‌تر تلقی می‌کنند، بیش از آنکه به توان عاطفی AI مربوط باشد، به محدودیت‌های انسان‌ها بازمی‌گردد. هوش مصنوعی همیشه آرام، صبور و بدون قضاوت پاسخ می‌دهد، خسته نمی‌شود و واکنش دفاعی نشان نمی‌دهد. در مقابل، انسان‌ها ممکن است بی‌حوصله، شتاب‌زده یا از نظر احساسی درگیر باشند. بنابراین مقایسهٔ صرفِ خروجی زبانی، بدون توجه به وجود یا فقدان تجربهٔ احساسی، مقایسه‌ای گمراه‌کننده است.
نگرانی اصلی این است که اگر چنین پاسخ‌هایی را «همدلی» بنامیم، ناخواسته معنای این مفهوم انسانی را تنزل داده‌ایم. همدلی به‌تدریج از یک توانایی عمیق انسانی به مجموعه‌ای از جمله‌های درست و زمان‌بندی‌شده تقلیل پیدا می‌کند. این تغییر معنایی، به گفتهٔ نویسنده، نمونه‌ای از همان خطری است که منتقدان فناوری بارها درباره‌اش هشدار داده‌اند: فناوری‌ها نه‌فقط ابزارهای ما، بلکه مفاهیم و ارزش‌های ما را نیز بازتعریف می‌کنند.
این سوءبرداشت می‌تواند پیامدهای اجتماعی و اخلاقی مهمی داشته باشد. اگر بپذیریم که هوش مصنوعی «همدل» است، ممکن است استفاده از آن در حوزه‌هایی مانند مراقبت از سالمندان، حمایت روانی یا همراهی بیماران توجیه شود؛ حوزه‌هایی که در آن‌ها حضور و ارتباط انسانی نقشی اساسی دارد. چنین جایگزینی شاید از نظر اقتصادی کارآمد به نظر برسد، اما خطر آن وجود دارد که انسان‌های آسیب‌پذیر به تعامل با سیستم‌هایی بسنده کنند که فقط وانمود به درک احساسات می‌کنند.
درکل، مسئله مخالفت با هوش مصنوعی نیست، بلکه دقت در زبان و مفاهیم است. به‌جای نسبت دادن «همدلی» به ماشین‌ها، باید آنچه آن‌ها انجام می‌دهند را شبیه‌سازی یا تقلید همدلی بنامیم و مرز میان توانایی زبانی و تجربهٔ احساسی واقعی را روشن نگه داریم. در غیر این صورت، خطر آن وجود دارد که در مسیر پیشرفت فناوری، تعریف ضعیف‌تری از انسان‌بودن را به‌عنوان پیشرفت بپذیریم.


منبع: فایننشال تایمز

۱۷ دی ۱۴۰۴ ۱۰:۴۸
تعداد بازدید : ۱۰۴
کد خبر : ۷۶,۰۹۱

نظرات بینندگان

تعداد کاراکتر باقیمانده: 500
نظر خود را وارد کنید