هوش مصنوعی و یادگیری ماشین

وقتی سازوکار هوش مصنوعی قابل درک نباشد، اعتماد مردم به آن بیشتر می‌شود

از جوآن مارتینز در مجله سپتامبر-اکتبر 2023

banner

تیموتی دی‌استفانو از دانشگاه جورج‌تاون به همراه همکارانش -مایکل مِنیِتی از هاروارد و لوکا وندرامینلی از کاترین کلوگِ MIT- تصمیمات فروشگاه‌ پوشاک لوکس آمریکا برای توزیع 425 محصول در 186 شعبه‌اش را تحلیل کردند. دو الگوریتم در اختیار کارکنان قرار گرفت. یکی از آن‌ها فرایند ساده و مشخصی داشت، اما دومی قابل درک نبود. نیمی از تصمیمات کارکنان با توصیه‌های الگوریتم ساده و نیمۀ دیگر با الگوریتم غیرقابل درک گرفته شدند. همان‌طور که مقایسه میان تصمیمات نشان داد، احتمال پیروی کارکنان از الگوریتم‏‌های غیرقابل تفسیر بیشتر بود. در نتیجه:

استاد دی‌استفانو، از تحقیق خود دفاع کنید:

وقتی سازوکار هوش مصنوعی قابل درک نباشد، اعتماد مردم به آن بیشتر می‌شود

برای مشاهده ادامه متن مقاله، اشتراک تهیه نمایید.

نظرات شما

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *