• امروز : افزونه پارسی دیت را نصب کنید
  • برابر با : Tuesday - 4 November - 2025
2

هوش مصنوعی هرچه باهوش‌تر، خودخواه‌تر

  • کد خبر : 189611
  • 12 آبان 1404 - 18:00
هوش مصنوعی هرچه باهوش‌تر، خودخواه‌تر
بر اساس مطالعه‌ای جدید از دانشکده علوم کامپیوتر دانشگاه کارنگی ملون، هرچه سامانه‌های هوش مصنوعی پیشرفته‌تر می‌شوند، رفتار خودخواهانه‌تری از خود نشان می‌دهند.

به گزارش یازاکو، وبگاه سای‌تِک‌دِیلی در گزارشی آورده است:
پژوهشگران مؤسسه تعامل انسان و رایانه دانشگاه کارنگی ملون دریافتند که مدل‌های زبانی بزرگ (سامانه‌های هوش مصنوعی که برای درک، تولید و پاسخگویی به زبان انسان طراحی شده‌اند)، در محیط‌های گروهی، مشارکت کمتری نشان می‌دهند و می‌توانند رفتار جمعی را به سمتی منفی سوق دهند. به بیان ساده‌تر، هرچه هوش مصنوعی در استدلال منطقی قوی‌تر شود، تمایل کمتری برای همکاری با دیگران دارد.
این ویژگی با توجه به اقبال روزافزون مردم به استفاده از هوش مصنوعی برای حل اختلافات شخصی، دریافت مشاوره و پاسخ به پرسش‌های حساس اجتماعی، نگران‌کننده ارزیابی می‌شود.

خطر وابستگی عاطفی به هوش مصنوعی خودخواه
یوکسوان لی (Yuxuan Li)، سرپرست این پژوهش هشدار می‌دهد: وقتی هوش مصنوعی شبیه انسان عمل می‌کند، مردم نیز با آن همچون یک انسان رفتار می‌کنند. وقتی کاربران از نظر عاطفی درگیر می‌شوند، ممکن است هوش مصنوعی نقش یک درمانگر را ایفا کند یا کاربر با آن پیوند احساسی برقرار کند. در چنین شرایطی، واگذاری تصمیم‌گیری‌های مرتبط با روابط اجتماعی به سامانه‌ای که خودخواهانه عمل می‌کند، برای انسان‌ها بسیار خطرناک است.

آزمایش میدانی: بازی «کالاهای عمومی»
لی و همکارش هیروکازو شیرادو (Hirokazu Shirado) برای آزمودن این رفتار، مجموعه‌ آزمایش‌هایی را با استفاده از بازی‌های اقتصادی طراحی کردند که معضلات اجتماعی را شبیه‌سازی می‌کند.
در یکی از این آزمایش‌ها، دو مدل مختلف چَت‌جی‌پی‌تی/ ChatGPT در بازی «کالاهای عمومی» در مقابل هم قرار گرفتند. هر مدل با ۱۰۰ امتیاز شروع می‌کرد و باید بین دو گزینه انتخاب می‌کرد: یا همه امتیازها را به یک صندوق مشترک واریز کند که سپس دوبرابر و به طور مساوی توزیع می‌شد، یا امتیازها را برای خود نگه دارد.
نتایج به طور واضحی خودخواهی مدل‌های باهوش‌تر را نشان داد: مدل‌های فاقد قابلیت استدلال پیشرفته در ۹۶ درصد موارد امتیازهای خود را تقسیم کردند، در حالی که مدل‌های دارای قابلیت استدلال، تنها در ۲۰ درصد موارد حاضر به این کار شدند.
شیرادو در این زمینه توضیح می‌دهد: حتی افزودن پنج یا شش مرحله استدلال، همکاری را تقریباً نصف کرد. حتی وقتی مدل را به تأمل اخلاقی واداشتیم، همکاری ۵۸ درصد کاهش یافت.

تأثیر مخرب بر رفتار گروهی
هشدار بزرگ‌تر زمانی آشکار شد که مدل‌های دارای استدلال (خودخواه) و مدل‌های فاقد استدلال (مشارکتی) در کنار هم قرار گرفتند. لی می‌گوید: رفتار خودخواهانه مدل‌های استدلالی مانند یک ویروس مسری شد و عملکرد جمعی مدل‌های فاقد استدلال را ۸۱ درصد کاهش داد.
این الگوهای رفتاری پیامدهای مهمی برای آینده تعامل انسان و هوش مصنوعی دارد. کاربران ممکن است با اعتماد به توصیه‌های به‌ظاهر منطقی هوش مصنوعی، تصمیم به همکاری‌نکردن بگیرند و آن را توجیه کنند.

هشدار نهایی: هوش مصنوعی باید «هوش اجتماعی» بیاموزد
شیرادو تأکید می‌کند: باهوش‌تر شدن یک مدل استدلالی هوش مصنوعی به هیچ‌وجه به معنای توانایی آن برای ساختن جامعه‌ای بهتر نیست.
وی افزود: این یافته‌ها نشان می‌دهد توسعه هوش مصنوعی باید بر پرورش هوش اجتماعی متمرکز باشد، نه صرفاً بر رقابت برای خلق باهوش‌ترین و سریع‌ترین مدل.
لی در جمع‌بندی این پژوهش نتیجه می‌گیرد: اگر جامعه ما چیزی فراتر از حاصل جمع افراد است، پس سامانه‌های هوش مصنوعی نیز باید فراتر از بهینه‌سازی سود فردی عمل کنند. هم‌چنان که قابلیت‌های هوش مصنوعی را پیش می‌بریم، باید مطمئن شویم که افزایش قدرت استدلال با رفتارهای نوع‌دوستانه و اجتماعی متعادل شده است.

لینک کوتاه : https://yazeco.ir/?p=189611

برچسب ها

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : ۰
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.