فناوری

ایده جدید ریاضی در هوش مصنوعی برای اجتناب از تجارت غیر اخلاقی و پرهزينه

ایده جدید ریاضی در هوش مصنوعی برای اجتناب از تجارت غیر اخلاقی و پرهزينه

محققان دانشگاه وارویک ، امپریال کالج لندن ، EPFL (لوزان) ، یک راه چاره ریاضی برای کمک به تنظیم کننده ها و مدیریت مشاغل و تعصبات سیستم های هوش مصنوعی پلیس نسبت به انتخاب های تجاری بسیار پرهزینه پیدا کرده اند. ( نگاه اخلاقی به هوش مصنوعی )

هوش مصنوعی (AI) به طور فزاینده در موقعیت های تجاری بسیار استفاده می شود. به عنوان مثال از هوش مصنوعی استفاده می شود تا قیمت محصولات بیمه ای را به مشتریان خاصی ارائه کند. دلایل قانونی خاصی برای تعیین قیمت های مختلف برای افراد مختلفی وجود دارد، اما ممکن است بازی روانشناسی یا تمایل به خرید در اطراف آنها نیز سودمند باشد.

هوش مصنوعی دارای تعداد زیادی استراتژی بالقوه برای انتخاب است ، اما برخی از آنها غیر اخلاقی هستند و فقط یک مجازات اقتصادی احتمالی را متحمل می شوند. وقتی ذینفعان این چنین تخلفاتی را مشاهده کنند، مجازات هایی از قبیل هوش مصنوعی را اعمال می کنند.

بنابراین در محیطی که تصمیمات بدون مداخله انسان به طور فزاینده ای اتخاذ شود، بنابراین انگیزه ای بسیار قوی وجود دارد که بدانیم سیستم های هوش مصنوعی تحت چه شرایطی می توانند یک استراتژی غیر اخلاقی را اتخاذ کنند تا بتوان آن خطر را کاهش یا در صورت امکان از بین ببریم.

ایده جدید ریاضی در هوش مصنوعی برای اجتناب از تجارت غیر اخلاقی و تجاری پرهزينه مشاغل

ریاضیدانان و آمارشناسان برای کمک به مشاغل و تنظیم کننده ها در ایجاد یک “اصل بهینه سازی غیر اخلاقی” جدید گرد هم آمده اند و فرمول ساده ای را برای برآورد تأثیر آن ارائه دادند. آنها جزئیات كامل را در مقاله ای با نام “یک اصل بهینه سازی غیر اخلاقی” ، كه در چهارشنبه اول ژوئیه 2020 در Royal Society Open Science منتشر شده است ، ارائه كرده اند.

پروفسور رابرت مک کی از انستیتوی ریاضیات دانشگاه وارویک می گوید: “اصول بهینه سازی غیر اخلاقی” یک روش ریاضی است که می تواند برای به تنظیم کننده ها، کارکنان و دیگران در یافتن راهکارهای مشکل ساز که ممکن است در یک فضای استراتژی بزرگ پنهان شوند، کمک کند. احتمالاً مشکلات نشان می دهد که چگونه الگوریتم جستجوی هوش مصنوعی باید اصلاح شود تا در آینده از آن تخلفات جلوگیری شود.

این اصل همچنین نشان می دهد كه ممكن است نیاز باشد كه به شیوه عملكرد (AI) در فضاهای استراتژیك بسیار بزرگ ، تجدید نظر كنیم تا نتایج غیر اخلاقی به روشنی در فرآیند بهینه سازی / یادگیری رد شود.

منبع: phys

دیدگاهتان را بنویسید