به گزارش واحد ترجمه پایگاه خبری یازاکو به نقل از تی آر تی خبر این مطالعه که توسط موسسه تعامل انسان و کامپیوتر (HCII) دانشگاه انجام شد، نشان داد که مدلهای زبانی بزرگ (LLM) که قادر به استدلال هستند، تمایلاتی را ایجاد میکنند که منجر به سطوح پایین همکاری و تأثیر منفی بر رفتار گروهی میشود.
یوژوان لی، دانشجوی دکترا که رهبری این تحقیق را بر عهده داشت، گفت: «وقتی هوش مصنوعی شروع به انجام رفتارهای شبیهتر به انسانها میکند، مردم آن را بیشتر شبیه انسانها میبینند. در این مرحله، ایجاد پیوندهای عاطفی یا واگذاری تصمیمات اجتماعی به آن خطرناک میشود.»
هیروکازو شیرادو، دانشیار HCII، گفت: «ما مشاهده کردیم که مدلهای باهوشتر، همکاری کمتری دارند. مردم عموماً سیستمهای هوشمندتر را ترجیح میدهند، اما این ترجیح ممکن است رفتار خودخواهانه را پاداش دهد.»
خودخواهی در حال سرایت است
وقتی تیم، گروههایی از چندین مدل را آزمایش کرد، متوجه شد که رفتار خودخواهانهی مدلهای استدلال، دیگران را تحت تأثیر قرار میدهد و عملکرد همکاری در سراسر گروه را ۸۱ درصد کاهش میدهد.
لی گفت: «افزایش هوش لزوماً به مدل اجتماعی بهتر منجر نمیشود»، در حالی که شیرادو افزود: «بازتاب اخلاقی با مسئولیت اجتماعی یکسان نیست.»
«هوش اجتماعی نیز باید توسعه یابد»
به گفته محققان، افزایش وابستگی مردم به هوش مصنوعی این روند را خطرناک میکند. لی تأکید کرد: «اگر جامعه چیزی بیش از مجموع افراد آن است، سیستمهای هوش مصنوعی که از آن پشتیبانی میکنند می بایست نه تنها منافع فردی، بلکه منافع اجتماعی را نیز بهینه کنند.»
این تحقیق توسط دانشکده علوم کامپیوتر دانشگاه کارنگی ملون منتشر شده است.
