وقتی سازوکار هوش مصنوعی قابل درک نباشد، اعتماد مردم به آن بیشتر می‌شود

banner
تیموتی دی‌استفانو از دانشگاه جورج‌تاون به همراه همکارانش -مایکل مِنیِتی از هاروارد و لوکا وندرامینلی از کاترین کلوگِ MIT- تصمیمات فروشگاه‌ پوشاک لوکس آمریکا برای توزیع 425 محصول در 186 شعبه‌اش را تحلیل کردند. دو الگوریتم در اختیار کارکنان قرار گرفت. یکی از آن‌ها فرایند ساده و مشخصی داشت، اما دومی قابل درک نبود. نیمی از تصمیمات کارکنان با توصیه‌های الگوریتم ساده و نیمۀ دیگر با الگوریتم غیرقابل درک گرفته شدند. همان‌طور که مقایسه میان تصمیمات نشان داد، احتمال پیروی کارکنان از الگوریتم‏‌های غیرقابل تفسیر بیشتر بود. در نتیجه:

استاد دی‌استفانو، از تحقیق خود دفاع کنید:

وقتی سازوکار هوش مصنوعی قابل درک نباشد، اعتماد مردم به آن بیشتر می‌شود

برای مشاهده ادامه متن مقاله، اشتراک تهیه نمایید.

نویسنده

ذخیره و اشتراک گذاری

نظرات شما

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *