پایگاه خبری فولاد ایران - در ماههای اخیر مطالعات و آزمایشهایی منتشر شدهاند که نشان میدهند پاسخهای تولیدشده توسط هوش مصنوعی، بهویژه مدلهای زبان بزرگ، در آزمونهای مربوط به همدلی و هوش هیجانی نمرههایی بالاتر از پاسخهای انسانی میگیرند. طبق گزارش فایننشال تایمز، در برخی موارد، کاربران پاسخهای چتباتها را همدلانهتر از پاسخ پزشکان یا درمانگران واقعی ارزیابی کردهاند. این نتایج باعث شکلگیری این تصور شده که هوش مصنوعی نهتنها در تحلیل و استدلال، بلکه در حوزهٔ احساسات انسانی نیز به سطحی پیشرفته رسیده است.
اما این برداشت، بنیادی نادرست است. همدلی واقعی مستلزم تجربهٔ احساس، توانایی شریک شدن در رنج یا شادی دیگری و داشتن آگاهی عاطفی است؛ ویژگیهایی که هوش مصنوعی اساساً فاقد آنهاست. آنچه مدلهای زبانی انجام میدهند، تشخیص الگوهای زبانی و تولید پاسخهایی است که از نظر آماری شبیه پاسخهای همدلانهٔ انسانها به نظر میرسند، نه درک یا تجربهٔ واقعی احساسات.
دلیل اینکه بسیاری از افراد پاسخهای هوش مصنوعی را همدلانهتر تلقی میکنند، بیش از آنکه به توان عاطفی AI مربوط باشد، به محدودیتهای انسانها بازمیگردد. هوش مصنوعی همیشه آرام، صبور و بدون قضاوت پاسخ میدهد، خسته نمیشود و واکنش دفاعی نشان نمیدهد. در مقابل، انسانها ممکن است بیحوصله، شتابزده یا از نظر احساسی درگیر باشند. بنابراین مقایسهٔ صرفِ خروجی زبانی، بدون توجه به وجود یا فقدان تجربهٔ احساسی، مقایسهای گمراهکننده است.
نگرانی اصلی این است که اگر چنین پاسخهایی را «همدلی» بنامیم، ناخواسته معنای این مفهوم انسانی را تنزل دادهایم. همدلی بهتدریج از یک توانایی عمیق انسانی به مجموعهای از جملههای درست و زمانبندیشده تقلیل پیدا میکند. این تغییر معنایی، به گفتهٔ نویسنده، نمونهای از همان خطری است که منتقدان فناوری بارها دربارهاش هشدار دادهاند: فناوریها نهفقط ابزارهای ما، بلکه مفاهیم و ارزشهای ما را نیز بازتعریف میکنند.
این سوءبرداشت میتواند پیامدهای اجتماعی و اخلاقی مهمی داشته باشد. اگر بپذیریم که هوش مصنوعی «همدل» است، ممکن است استفاده از آن در حوزههایی مانند مراقبت از سالمندان، حمایت روانی یا همراهی بیماران توجیه شود؛ حوزههایی که در آنها حضور و ارتباط انسانی نقشی اساسی دارد. چنین جایگزینی شاید از نظر اقتصادی کارآمد به نظر برسد، اما خطر آن وجود دارد که انسانهای آسیبپذیر به تعامل با سیستمهایی بسنده کنند که فقط وانمود به درک احساسات میکنند.
درکل، مسئله مخالفت با هوش مصنوعی نیست، بلکه دقت در زبان و مفاهیم است. بهجای نسبت دادن «همدلی» به ماشینها، باید آنچه آنها انجام میدهند را شبیهسازی یا تقلید همدلی بنامیم و مرز میان توانایی زبانی و تجربهٔ احساسی واقعی را روشن نگه داریم. در غیر این صورت، خطر آن وجود دارد که در مسیر پیشرفت فناوری، تعریف ضعیفتری از انسانبودن را بهعنوان پیشرفت بپذیریم.
منبع: فایننشال تایمز