روشی بهتر برای به خدمت گرفتن هوش مصنوعی

نویسندگان: اَن-لوره فایارد, بوریس بابیچ, تئودوروس یوگنیو, دنیل چن

به چشم ابزاری به آن بنگرید که کمک حال نیروی انسانی است، نه جایگزین آن

طی نظرسنجی «موسسه‌ی نیروی کار» در سال 2018 که با شرکت 3 هزار مدیر از 8 کشور صنعتی صورت گرفت، اکثراً هوش مصنوعی را یک ابزار ارزشمند برای ارتقای بهره‌وری سازمانشان دانستند.

به‌راحتی می‌توان علت این موضوع را درک کرد: هوش مصنوعی مزایای بسیاری در زمینه‌ی سرعت پردازش، دقت و ثبات عملکرد دارد (ماشین‌ها هیچ‌گاه به خاطر خستگی اشتباه نمی‌کنند) و به همین دلیل، هم‌اکنون بسیاری از کارشناسان به آن اتکا می‌کنند. مثلاً برخی پزشکان از ابزارهای هوش مصنوعی برای تشخیص بیماری و انتخاب شیوه‌های درمانی بهره می‌گیرند.

البته شرکت‌کنندگان از دغدغه‌های خود مبنی بر جایگزینی هوش مصنوعی با نیروهای انسانی و خطر از دست رفتن شغل هم گفتند. فقط آن‌ها نیستند که چنین دغدغه‌ای دارند. طی گزارش اخیر گاردین، بیش از 6 میلیون کارگر انگلیسی نگران جایگزینی خود با ماشین‌ها هستند. طی ملاقاتمان با دانشگاهی‌ها و مدیران در همایش‌ها و سمینارها، آن‌ها هم همین دغدغه‌ها را تکرار می‌کنند. هوش مصنوعی یک وجه تاریک هم‌ دارد: وقتی ماشین‌ها عملکرد بهتری دارند، پس دیگر چه نیازی به انسان‌ها داریم؟

با توجه به رواج این دغدغه‌ها، در صورت تمایل سازمان‌ به بهره‌مندی از مزایای هوش مصنوعی، باید در هنگام معرفی این ابزارها به کارکنان احتیاط و تمهیدات لازم را بیندیشد. به گفته‌ی اندرو ویلسون که تا ژانویه‌ی 2020 در سِمت مدیر ارشد اطلاعات اکسنچر حضور داشت، «هرقدر یک سازمان تمرکز بیشتری بر کمک متقابل انسان‌ و هوش مصنوعی داشته باشد، به ارزش‌های بالاتری دست خواهد یافت». اکسنچر به این نتیجه رسید که هرگاه کمپانی‌ هدفش از به‌کارگیری هوش مصنوعی را نه جایگزینی با نیروهای انسانی بلکه کمک به آن‌ها اعلام کند، عملکرد بهتری نسبت به سایر کمپانی‌ها خواهد داشت که چنین قصدی ندارند (یا آن را به‌صراحت ذکر نکرده‌اند)؛ نمود این عملکرد بهتر در اکثر جنبه‌های بهره‌وری سازمان خواهد بود؛ به‌خصوص سرعت، مقیاس‌پذیری، و بازده تصمیم‌گیری.


خلاصه ایده

مسئله

بسیاری از کمپانی‌ها زحمت زیادی برای به‌کارگیری هوش مصنوعی می‌کشند؛ اما نمی‌توانند پیشرفت و بهره‌وری مدنظرشان را کسب کنند.

علت

اغلب مدیران به‌صراحت اعلام نمی‌کنند که هدفشان از به‌کارگیری هوش مصنوعی، نه جایگزینی نیروهای انسانی بلکه افزایش بهره‌وری آن‌ها است.

راه حل

به‌کارگیری هوش مصنوعی را یک پروسه‌ی راه‌اندازی 4 مرحله‌ای برشمرید: هوش مصنوعی به‌عنوان دستیار، دیده‌بان، مربی، و به‌عنوان یک هم‌تیمی.


مانند وقتی که یک نیروی جدید به گروه می‌پیوندد، باید بستر لازم برای موفقیت هوش مصنوعی را نیز فراهم کنید. یک کارفرمای خبره ابتدا وظایف ساده را به نیروهای جدید می‌سپارد تا تجربه‌ی عملی کسب کنند و ضمناً مشاورهایی در نظر می‌گیرد تا به این افراد کمک و توصیه ارائه دهند. بدین ترتیب تازه‌واردها آموزش می‌بینند و دیگران هم تمرکزشان را روی وظایف مهم‌تر می‌گذارند. وقتی تجربه کسب کردند و توانایی خود برای پیشبرد امور را نشان دادند، منتورها بیش‌ازپیش رویشان حساب خواهند کرد و تصمیمات اساسی‌تری را به آن‌ها می‌سپارند. به‌مرور زمان شاگرد به همکار تبدیل می‌شد و مهارت و بینش خود را در اختیار گروه می‌گذارد.

به باور ما می‌توان از همین رویکرد برای هوش مصنوعی هم بهره گرفت. در ادامه از تحقیقات خود و دیگران، مشاوره‌های ارائه‌شده در زمینه‌ی اجرای هوش مصنوعی، سیستم‌های اطلاعات، و مطالعات سازمانی بر روی نوآوری و دستورالعمل‌های کاری بهره می‌گیریم تا یک رویکرد چهارمرحله‌ای برای اجرای هوش مصنوعی ارائه دهیم. بدین ترتیب شرکت‌ها می‌توانند ضمن افزایش اعتماد نیروها -شرطی کلیدی برای به‌کارگیری این فناوری- به یک سیستم شناختی توزیع‌شده‌ میان انسان و هوش مصنوعی برسند که هر دو جناح آن دائماً پیشرفت می‌‌کنند. بسیاری از سازمان‌ها مرحله‌ی 1 را آزموده‌ و برخی به مراحل 2 و 3 هم رسیده‌اند. اما در حال حاضر مرحله‏‌ی 4 را عمدتاً «مدلی برای آینده» می‌دانند که برخی از علائم اولیه‌ی آن مشاهده می‌شوند؛ البته از منظر فناوری امکان اجرای آن وجود دارد و می‌تواند ارزش‌های بیشتری را در اختیار کمپانی‌های بهره‌مند از هوش مصنوعی بگذارد.

کاربرد ویژه‌ی هوش مصنوعی در حین تصمیم‌گیری‌های انبوه و با حجم بالایی است که احتمال خستگی یا حواس‌پرتی نیروی انسانی وجود دارد.

مرحله 1: دستیار

اولین مرحله، شباهت نسبتاً زیادی با آموزش دستیارها دارد. تعدادی اصول و قانون پایه‌ای به کارمند جدید می‌آموزید و چند وظیفه‌ی ابتدایی اما زمان‌بر که عموماً بر عهده‌ی خودتان است (نظیر بایگانی فرم‌های آنلاین یا خلاصه‌سازی اسناد) را به او می‌سپارید تا زمان بیشتری برای تمرکز بر جنبه‌های مهم‌تر کارتان داشته باشید. شاگرد از طریق مشاهده‌ی شما، اجرای وظایف محوله و طرح پرسش‌، اطلاعاتش را افزایش خواهد داد.

به‌عنوان نمونه می‌توان به سیستم‌های توصیه اشاره کرد که از اواسط دهه‌ی 90 توسط کمپانی‌ها استفاده می‌شوند تا کمک‌حال مشتریان برای فیلتر هزاران محصول و شناسایی آیتم‌های مدنظرشان باشند – آمازون و نت‌فلیکس ازجمله پیشگامان بهره‌گیری از این فناوری هستند.

هم‌اکنون تعداد روزافزونی از تصمیمات کسب‌وکار، مستلزم این نوع مرتب‌سازی داده هستند. مثلاً وقتی مدیر پورتفولیو در حال انتخاب سهام برای سرمایه‌گذاری است، اطلاعات موجود بسیار فراتر از قدرت پردازش یک انسان هستند و همواره اطلاعات جدیدی از راه می‌رسند که به اطلاعات پیشین افزوده می‌شوند. نرم‌افزار می‌تواند با اعمال فیلتر بر اساس معیارهای سرمایه‌گذاری از پیش تعیین‌شده، این وظیفه را کنترل‌پذیرتر کند. ضمناً پردازش زبان طبیعی می‌تواند مرتبط‌ترین اخبار به هر کمپانی را انتخاب و حتی با بررسی گزارش‌های تحلیلگرها، احساس کلی آن‌ها درباره‌ی رویداد پیش روی سازمان را ارزیابی کند. مدیریت دارایی ماربل بار (MBAM)، یک شرکت سرمایه‌گذاری واقع در لندن که در سال 2002 بنیان گذاشته شد، از اولین‌ سازمان‌ها در زمینه‌‌ی بهره‌گیری از فناوری‌های این‌چنینی در محیط کار بود. آن‌ها یک پلتفرم پیشرفته تحت عنوان RAID (پایگاه اطلاعات و تحلیل تحقیقات) توسعه دادند تا کمک‌حال مدیران پورتفولیو برای فیلتر انبوه اطلاعات مرتبط با همایش‌های شرکت‌ها، پیشرفت‌های جدید و جنبش‌های بازار سهام باشند.

همان‌طور که هر کاربر گوگل می‌داند، این موتور جستجو سعی می‌کند موقع تایپ کردن، عبارت مدنظرتان را پیش‌بینی کند. بخش کلمات پیشنهادی در صفحه‌کلید گوشی‌های هوشمند نیز یک رویکرد مشابه برای سرعت بخشیدن به پروسه‌‌ی تایپ است. به‌راحتی می‌توان این‌گونه مدل‌سازی کاربر را که بیش از 30 سال پیش توسعه داده شد، بر فرایند تصمیم‌گیری هم اعمال کرد. هوش مصنوعی از آن بهره می‌گیرد تا با ارزیابی انتخاب‌های پیشین هر فرد، محتمل‌ترین انتخابش را شناسایی کند و وقتی با چندین تصمیم مواجه شد، ابتدا چنین گزینه‌ای را به او پیشنهاد دهد – به‌جای اینکه خودش قضاوت کند، صرفاً موجب تسریع اجرای آن توسط فرد می‌شود.

بیایید همین قضیه را در یک چارچوب بخصوص در نظر بگیریم. کارکنان ایرلاین موقع تصمیم‌گیری برای تعیین حجم غذا و نوشیدنی هر پرواز، فرم درخواست مواد غذایی پر می‌کنند که مستلزم مقداری محاسبه و به‌کارگیری فرضیاتِ مبتنی بر تجربه‌ی پروازهای پیشین است. انتخاب‌های نادرست تاوان‌هایی خواهند داشت: خطر کم آمدن مواد غذایی که موجب نارضایتی مشتریان می‌شود؛ و سفارش مواد غذایی بیش‌ازحد نیاز که موجب هدر رفتن آن‌ها و البته افزایش غیرضروری مصرف سوخت هواپیما خواهد شد.

هوش مصنوعی می‌تواند با تحلیل انتخاب‌های پیشین مدیر خدمات پذیرایی یا بهره‌گیری از قوانین تعیین‌شده از سوی مدیر، سفارش‌های احتمالی او را پیش‌بینی کند. فرایند «تکمیل خودکار» یا «ارائه‌ی سفارش‌های پیشنهادی» می‌تواند به‌صورت اختصاصی برای هر پرواز صورت گیرد. برای این کار از تمامی داده‌های مرتبط پیشین ازجمله مصرف غذا و نوشیدنی در مسیر مدنظر یا حتی سابقه‌‏ی خرید مشتریان آن پرواز بهره می‌گیرد. اما همانند پیش‌بینی کلمه در فرایند تایپ، کاربر مختار است که تصمیم خودش رابگیردد؛ همیشه همه‌چیز دست خودشان است. هوش مصنوعی از طریق تقلید یا پیش‌بینی سبک تصمیم‌گیری افراد، صرفاً نقش دستیار کمکی را ایفا می‌کند.

نباید به مدیران فشار آورد که حتماً به این طریق با هوش مصنوعی کار کنند. همین کار را در زندگی شخصی خودمان انجام می‌دهیم، جایی که این قدرت را در اختیار قابلیت تکمیل خودکار گذاشته‌ایم تا اطلاعات اولیه‌ی فرم‌های آنلاین را پر کند. مثلاً در محیط کار، مدیر می‌تواند قوانین ویژه‌ای برای دستیار هوش مصنوعی تعریف کند تا در هنگام تکمیل فرم‌ها از آن‌ها بهره بگیرد. در واقع بسیاری از ابزارهای نرم‌افزاری که هم‌اکنون در محیط کار استفاده می‌شوند (نظیر برنامه‌های ارزیابی اعتبار)، به همین شیوه عمل می‌کنند: کلکسیونی از قوانین تصمیم‌گیری که توسط انسان‌ها تعریف شده‌اند. سپس دستیار هوش مصنوعی می‌تواند با تدوین شرایط تبعیت مدیر از قوانین، این اصول را اصلاح کند. این یادگیری به تحول رفتار مدیر یا حتی بحث تلاش برای «آموزش» دستیار نیاز ندارد.

مرحله 2: منتور

گام بعدی به‌کارگیری سیستم هوش مصنوعی، فراهم‌سازی بازخوردهای آنی است. از طریق برنامه‌های یادگیری ماشینی، می‌توان به هوش مصنوعی یاد داد که تصمیم احتمالی فرد در یک موقعیت معین را پیش‌بینی کند (صرف‌نظر از خطاهای منطقی که امکان دارد به خاطر اعتمادبه‌نفس بیش‌ازحد یا خستگی رخ دهند). اگر کاربر در حال اتخاذ یک تصمیم غیرمطابق با انتخاب‌های پیشینش باشد، سیستم می‌تواند این مغایرت را هشدار دهد. این امر به‌خصوص در حین تصمیم‌گیری‌های انبوه و با حجم بالا رخ می‌دهد که احتمال خستگی یا حواس‌پرتی کارمند وجود دارد.

تحقیقات حوزه‌های روانشناسی، اقتصاد رفتاری و علوم شناختی نشان می‌دهند که توانایی استدلال انسان‌ها محدود و ناقص است، به‌خصوص وقتی پای مشکلات آمار و احتمال در میان باشد که در جای‌جای کسب‌وکارها مشاهده می‌شوند. تعدادی مطالعه در زمینه‌ی احکام حقوقی قضات (که چن در تألیف یکی از آن‌ها نقش داشت)، این نتایج را نشان دادند: احتمال صدور حکم پناهندگی سیاسی در ساعات قبل از صرف ناهار، بیشتر بود؛ در صورت پیروزی تیم فوتبال مورد علاقه قضات، مدت محکومیت کمتری برای زندانیان در نظر می‌گرفتند؛ و در روز تولد متهم، کمتر به او سخت می‌گرفتند. طبعاً اگر یک نرم‌افزار به قضات یادآوری کند که تصمیمشان مغایر با احکام پیشین است یا حکم متهم را بر اساس تحلیل متغیرهای حقوقی صادر کند، تصمیمات بهتری اتخاذ خواهند شد.

مطالعه‌ی دیگری چنین نتیجه‌ای در پی داشت: برنامه‌های هوش مصنوعی که یک مدل متشکل از متغیرهای حقوقی پایه را پردازش می‌کردند، دقت حدوداً 80 درصدی در پیش‌بینی احکام پناهندگی داشتند. آن‌ها قابلیت یادگیری را به برنامه افزودند که به آن اجازه می‌داد بر اساس احکام پیشین هر قاضی، تصمیم‌گیری او را شبیه‌سازی کند.

این رویکرد می‌تواند به کار سایر چارچوب‌ها هم بیاید. مثلاً اگر تصمیم خرید یا فروش مدیر پورتفولیو در شرکت مدیریت سرمایه‌ی ماربل بار، ریسک کلی سبد سهام را افزایش دهد -فرضاً با افزایش ریسک در یک بخش یا منطقه‌ی جغرافیایی بخصوص- سیستم در حین پروسه‌ی تراکنش کامپیوتری به او هشدار می‌دهد تا اصلاحات لازم را انجام دهد. البته مدیر پورتفولیو می‌تواند تا وقتی ریسک مربوطه در محدوده‌های مجاز سازمان باشد، این پیام‌ها را نادیده بگیرد. اما درهرصورت این بازخوردها به او کمک می‌کنند تا به تصمیماتش بیندیشد.

طبعاً همیشه «حق» با هوش مصنوعی نیست. وقتی اطلاعات خصوصی و قابل اعتماد در دسترس شخص تصمیم‌گیرنده باشند، عموماً پیشنهادهای هوش مصنوعی در نظر گرفته نمی‌‏شوند؛ زیرا در این شرایط هوش مصنوعی می‌تواند به‌جای تصحیح سوگیری‌های رفتاری احتمالی، شخص را منحرف کند. به همین دلیل است که بهره‌گیری از هوش مصنوعی باید همچون یک گفتمان متقابل باشد که الگوریتم با بررسی داده‌ها، هشدارهایش را ارائه دهد و انسان هم از طریق توضیح علت نادیده گرفتن این هشدار، هوش مصنوعی را آموزش دهد. بدین ترتیب کارایی هوش مصنوعی افزایش خواهد یافت و استقلال شخص تصمیم‌گیرنده نیز حفظ می‌شود.

متاسفانه بسیاری از سیستم‌های هوش مصنوعی به‌گونه‌ای راه‌اندازی می‌‌شوند که این استقلال را غصب کنند. فرضاً وقتی الگوریتم، یک تراکنش بانک را کلاه‌برداری تشخیص دهد، کارمند عموماً نمی‌تواند آن تراکنش را تایید کند و باید حتماً این تصمیم با اطلاع سرپرست یا حتی یک حسابرس بیرونی صورت گیرد. گاهی اوقات ابطال انتخاب یک ماشین، تقریباً غیرممکن خواهد بود. این موضوع یک عامل همواره آزاردهنده برای مشتریان و شاغلان بخش خدمات مشتری است. در بسیاری از نمونه‌ها ابهاماتی درباره‌ی منطق انتخاب هوش مصنوعی وجود دارد و کارکنان در جایگاهی نیستند که آن را زیر سوال ببرند، حتی اگر اشتباهاتی صورت گرفته باشد.

در صورت گردآوری داده‌های تصمیم‌گیری افراد توسط ماشین‌ها، حریم خصوصی هم یک معضل دیگر خواهد بود. باید علاوه بر اعطای حق اختیار به انسان‌ها برای کنترل تبادلاتشان با هوش مصنوعی، ضمانت دهیم که هرگونه داده‌ی گردآوری‌شده محرمانه خواهد ماند. باید یک دیوار میان تیم مهندسان و مدیریت سازمان کشیده شود؛ در غیر این صورت احتمال نگرانی کارکنان درباره‌ی تعامل آزاد با سیستم وجود دارد، زیرا می‌ترسند که اشتباهاتشان گران تمام شوند.

ضمناً کمپانی‌ها باید قوانین طراحی و تعامل با هوش مصنوعی را تصویب کنند تا شاهد اجرای هماهنگ رویکردها و هنجارها در سرتاسر سازمان باشند.

برای تداوم حس کنترل کارکنان در فاز دوم اجرای هوش مصنوعی، به مدیران و طراحان سیستم توصیه می‌کنیم که از مشارکت نیروها بهره بگیرند: از آن‌ها در نقش یک متخصص بهره بگیرند تا ضمن تعریف داده‌های کاربردی، حقیقت مبنا را تعیین کنند؛ در حین توسعه‌ی مدل‌ها، موجبات آشنایی کارکنان با آن‌ها را فراهم کنند؛ و دوره‌های آموزشی و فرصت‌های تعامل افراد با مدل‌ها را فراهم کنند. بنابراین کارکنان می‌توانند شیوه‌ی ساخت مدل‌ها، نحوه‌ی مدیریت داده‌ها و علت ارائه‌ی هر توصیه از سوی ماشین‌ها را درک کنند.

مرحله 3: مربی

طی نظرسنجی اخیر PwC، نزدیک به 60 درصد از پاسخ‌دهندگان گفتند که ترجیح می‌دهند بازخوردهای عملکردشان را به‌صورت روزانه یا هفتگی بگیرند. درک علت آن دشوار نیست. همان‌طور که پیتر دراکر طی مقاله‌ی معروف سال 2005 مجله‌ی کسب‌وکار هاروارد با عنوان «مدیریت خود» گفت، اکثر افراد مهارت‌هایشان را نمی‌شناسند. و وقتی فکر می‏‌کنند آن‌ها را می‌شناسند، عموماً حسشان درست نیست.

مشکل اینجاست که تنها راه شناسایی نقاط قوت و فرصت‌های پیشرفت، تحلیل دقیق تصمیمات و کنش‌های کلیدی است. این امر مستلزم ثبت نتایج قابل پیش‌بینی و سپس مقایسه‌ی این پیش‌بینی‌ها با نتایج واقعی طی 9 الی 12 ماه آتی است. بنابراین کارکنان بازخوردهایشان را عموماً از سوی مافوق‌ها و طی ارزیابی‌های عملکرد دوره‌ای می‌گیرند، نه در زمان یا قالبی که مدنظر خودشان است. این خوب نیست؛ زیرا طبق یافته‌های تسا وست از دانشگاه نیویورک، هرقدر افراد حس اطمینان بیشتری نسبت به حفظ استقلال و کنترل گفت‌وگو داشته باشند – مثلاً بتوانند زمان دریافت بازخورد را انتخاب کنند – واکنش بهتری به آن خواهند داشت.

هوش مصنوعی می‌تواند این مشکل را برطرف کند. توانمندی‌هایی که تا کنون به آن‌ها اشاره کرده‌ایم، می‌توانند بازخوردهای مناسب را در اختیار کارکنان بگذارند، و به آن‏ها اجازه می‌دهند که عملکردشان را ارزیابی کنند و به جایگزین‌ها و خطاها بیندیشند. ارائه‌ی یک خلاصه‌ی ماهانه که داده‌های حاصله از رفتار گذشته‌ی آن‌ها را تحلیل کند، می‌تواند کمک‌حال آن‌ها برای شناخت بهتر الگوها و رویکردهای تصمیم‌گیری‌شان باشد. اما صرفاً تعداد اندکی از کمپانی‌ها از این رویکرد بهره می‌گیرند که بارزترینشان سازمان‌های فعال در امور مالی هستند. مثلاً مدیران پورتفولیوی MBAM، بازخوردهای سیستم تحلیل داده را می‌گیرند که تصمیمات سرمایه‌گذاری هر شخص را ثبت می‌کند.

ممکن است داده‌ها دارای سوگیری‌های جالب و گوناگون مدیران پورتفولیو باشند. شاید برخی ضررگریزتر از دیگران باشند و سرمایه‌گذاری‌های ناکارآمد را بیشتر ادامه دهند. شاید برخی اعتمادبه‌نفس بیش‌ازحد داشته باشند و لقمه‌ای بزرگتر از دهانشان بردارند. تحلیل می‌تواند این رفتارها را شناسایی کند و – همچون یک مربی – بازخوردهای شخصی‌سازی‌شده درباره‌ی تغییرات رفتاری فرد در گذر زمان و همچنین راهکارهای بهبود تصمیماتش را ارائه دهد. اما تصمیم‌گیری برای استفاده از این بازخوردها، بر عهده‌ی مدیران پورتفولیو است. رهبری MBAM اعتقاد دارد که این «پیشرفت تبادل» به اصلی‌ترین وجه تمایز آن‌ها تبدیل شده است که ضمن پیشرفت مدیران پورتفولیو، جذابیت سازمان را هم افزایش می‌دهد.

ضمناً همان‌طور که منتورهای خوب از بینش‌های افراد تحت هدایتشان بهره می‌گیرند، «ربات‌مربیِ» یادگیری ماشینی هم تصمیمات انسان‌ها را می‌بیند و یاد می‌گیرد. در روابطی که شرح داده‌ایم، انسان می‌تواند با ربات‌‌مربی مخالفت کند – و همین مخالفت‌ها موجب خلق داده‌های جدیدی خواهند شد که مدل ضمنی هوش مصنوعی را اصلاح می‌کنند. مثلاً وقتی مدیر پورتفولیو تصمیم بگیرد به خاطر اتفاقات اخیر کمپانی فلان سهام شاخص را مبادله نکند، می‌تواند توجیهش برای این کار را به سیستم ارائه دهد. با این بازخورد، سیستم همچنان داده‏‌های قابل تحلیل را گردآوری خواهد کرد تا بینش‌های لازم را ارائه دهد.

اگر کارکنان با هوش مصنوعی رابطه برقرار کنند و کنترل تبادلاتشان را در دست بگیرند، بیش‌ازپیش آن را یک کانال امن برای دریافت بازخورد می‌پندارند که هدفش نه ارزیابی عملکرد بلکه کمک‌رسانی است. انتخاب رابط کاربری صحیح می‌تواند مثمرثمر باشد. به‌عنوان نمونه می‌توان به ابزارهای پیشرفت تبادل در MABM اشاره کرد که بر اساس ترجیحات هر مدیر پورتفولیو شخصی‌سازی می‌شوند.

همانند مرحله‌ی 2، باید کارکنان هم در طراحی سیستم مشارکت کنند. وقتی هوش مصنوعی در نقش مربی ظاهر شود، رعب و وحشت افراد از سلب قدرتشان بیشتر هم خواهد شد. ممکن است آن را نه به‌عنوان همکار بلکه رقیب بپندارند – و چه کسی دوست دارد هوش او کمتر از یک ماشین باشد؟ ممکن است دغدغه‌های افراد در رابط با استقلال و حریم شخصی، بیشتر از قبل هم شوند. کار با یک مربی مستلزم صداقت است و وقتی فرد بداند که امکان اشتراک‌گذاری داده‌های نامطلوب با واحد منابع انسانی وجود دارد، احساس راحتی لازم برای ابراز آن‌ها را نخواهد داشت.

به‌کارگیری هوش مصنوعی به شیوه‌های مطرح‌شده در سه مرحله‌ی اول، طبعاً دارای نقاط ضعف مختص خودش هم خواهد بود. هرچند امکان کارآفرینی فناوری‌های جدید در بلندمدت، بسیار بیشتر از احتمال نابودسازی مشاغل توسط آن‌ها است، اما در این حین موجب شکل‌گیری اختلالات شدید در بازارهای کار خواهند شد. ضمناً همان‌طور که مت بین در «یادگیری نحوه‌ی همکاری با ماشین‌های هوشمند» (مجله‌ی کسب‌وکار هاروارد، سپتامبر-اکتبر 2019) گفته است، شاید بهره‌گیری کمپانی‌ها از هوش مصنوعی موجب کاهش فرصت‌های یادگیری تجربی و کارورزی کارکنان شود.

وقتی هوش مصنوعی در نقش مربی ظاهر شود، رعب و وحشت افراد از سلب قدرتشان بیشتر هم خواهد شد. ممکن است آن را نه یک همکار بلکه رقیب بپندارند.

بنابراین نه‌تنها خطر از دست رفتن مشاغل ابتدایی وجود دارد (زیرا دستیارهای دیجیتال می‌توانند به بهترین شکل جایگزین انسان‌ها شوند)، بلکه اختلالاتی در تفکر مستقل تصمیم‌گیرندگان نیز به وجود می‌آید. همان‌طور که بین گفته است، کمپانی‌ها می‌توانند از هوش مصنوعی بهره بگیرند تا ضمن خلق فرصت‌های یادگیری متفاوت و بهتر برای کارکنان، با افزایش شفافیت سیستم و اعطای کنترل بیشتر به کارکنان، موجبات پیشرفت سیستم را هم فراهم بیاورند. ازآنجایی‌که کارکنان نسل آینده در محیط‌های کار توأم با هوش مصنوعی پرورش یافته‌اند، قطعاً سرعت بیشتری در شناسایی فرصت‌های نوآوری و فعالیت‌هایی خواهند داشت که موجب ارزش‌آفرینی و خلق مشاغل جدید خواهند شد – که بدین ترتیب به مرحله‌ی آخر می‌رسیم.

مرحله 4: هم‌تیـمی

ادوین هاچینز، انسان‌شناس شناختی، نظریه‌ای را مطرح کرده که «شناخت توزیع‌شده» نام دارد. این نظریه بر اساس مطالعه‌ی او روی ناوبری کشتی شکل گرفت که با مشارکت دریانوردها و بهره‌گیری از نقشه‌، خط‌کش، قطب‌نما و یک ابزار ترسیم انجام شد. کلیت این نظریه در ارتباط با مفهوم ذهن گسترده و توسعه یافته است که پردازش شناختی و کنش‌های ذهنی مربوطه نظیر باور و مقصود را لزوماً محدود به مغز یا حتی جسم انسان نمی‌داند. تحت شرایط مناسب، ابزارها و دستگاه‌های بیرونی هم می‌توانند نقش خودشان را در پردازش شناختی ایفا کنند و پدیده‌ای موسوم به «سیستم همبسته» را بسازند.

هم‌راستا با این طرز فکر، آخرین مرحله‌ی به‌کارگیری هوش مصنوعی (تا جایی که ما می‌دانیم، هنوز هیچ سازمانی به این مرحله نرسیده) به‌گونه‌ای است که کمپانی‌ها یک شبکه‌ی همبسته از انسان‌ها و ماشین‌ها می‌سازند و هر گروه، تخصصی را به کار می‌گیرند. به باور ما با توجه به پیشرفت هوش مصنوعی که از طریق تعامل با تک‌تک کاربرها، تحلیل و حتی مدل‌سازی داده‌های مرتبط با تصمیمات و رفتارهای پیشین کاربران متخصص رخ می‌دهد، جامعه‌ای از متخصصین (متشکل از انسان‌ها و ماشین‌ها) در دل سازمان‌های بهره‌مند از ربات‌مربی‌ها شکل می‌گیرد. مثلاً وقتی مدیر خرید می‌تواند قیمت پیشنهادی توسط دیگران را ببیند – با یک کلیک در لحظه‌ی تصمیم‌گیری – مزیت بهره‌مندی از یک گلچین شخصی‌سازی‌شده‌ از متخصصان را خواهد داشت.

هرچند هم‌اکنون هم فناوری لازم برای خلق این هوش جمعی وجود دارد، اما چالش‌هایی در پیش روی این مرحله قرار دارند. مثلاً روند به‌کارگیری هوش مصنوعی باید عاری از سوگیری‌های قدیمی یا جدید باشد و به دغدغه‌های حریم شخصی احترام بگذارد تا انسان بتواند به‌اندازه‌ی همکارش به هوش مصنوعی هم اعتماد داشته باشد. با عنایت به انبوه تحقیقاتی که حاکی از دشواری اعتمادسازی در میان انسان‌ها هستند، همین امر می‌تواند یک چالش واقعاً بزرگ باشد.

طبق این مدل، اعتماد من به یک شخص به خاطر درک ارزش‌ها، تمایلات و نیات او است، و همین ویژگی‌ها نشان می‌دهند که آیا فرد مدنظر صلاحم را می‌خواهد یا خیر. هرچند از دیرباز درک، مبنای اعتماد در روابط انسان‌ها بوده؛ اما می‌تواند عامل شکل‌گیری همکاری میان انسان و هوش مصنوعی هم باشد، زیرا ترس کارکنان از هوش مصنوعی عموماً به خاطر عدم درکشان از نحوه‌ی عملکرد آن است (کادر «وقتی هوش مصنوعی راهش را گم می‌کند» را ببینید).

یکی از چالش‌های اساسی ایجاد این درک، این است که «توجیه»، – صرف نظر از توجیه خوب- را تعریف کنیم. همین چالش هم سوژه‌ی بسیاری از تحقیقات شده است. مثلاً یکی از ما (یوگنیو) در تلاش است تا از طریق توجیهات موسوم به «خلاف واقع» از یادگیری ماشینی رمزگشایی کند. به‌عنوان نمونه می‌توان به توجیه خلاف واقع برای تصمیم یک سیستم هوش مصنوعی (فرضاً تایید اعتبار برای یک تراکنش بخصوص) اشاره کرد که فهرستی کوتاه از خصایص منجر به آن تصمیم را گردآوری می‌کند. در صورت متفاوت بودن هر کدام از خصایص (یا مخالفت آن‌ها با وقایع کنونی)، سیستم هم تصمیم متفاوتی را اتخاذ می‌کرد (اعتبار مدنظر را تایید نمی‌کرد).


وقتی هوش مصنوعی راهش را گم می‌کند

در سال 2016 بود که اتاق خبر تحقیقاتی پروپابلیکا، گزارش برنامه‌ی هوش مصنوعی COMPAS را منتشر کرد که کاربرد آن در زمینه‌‌ی پیش‌بینی ریسک است و قضات فلوریدای جنوبی از آن بهره می‌گیرند تا احتمال تکرار تخلف متهم طی یک دوره‌ی زمانی معین را ارزیابی کنند.

الگوریتم هسته‌ی COMPAS به‌عنوان اسرار کسب‌وکاری نزد تولیدکننده‌ی آن نورث‌پوینت (که هم‌اکنون اکوئیوانت نام دارد) محفوظ مانده است، بنابراین هیچ اطلاعی از رویکرد COMPAS برای پیش‌بینی و داده‌های مورد استفاده برای تعلیم آن نداریم – درنتیجه قابلیت زیر سوال بردن منطق آن را نداریم. از زمان گزارش نتایج ناهمسان این الگوریتم برای نژادهای گوناگون، COMPAS بلافاصله به یک نمونه‌ی برجسته از علت عدم اعتماد انسان‌‏ها به هوش مصنوعی تبدیل شد.

اگر کسب‌وکارها خواهان پذیرش، به‌کارگیری و در نهایت اعتماد نیروها به سیستم‌های هوش مصنوعی هستند، باید این جعبه‌‌سیاه را به روی تمامی افرادی بگشایند که انتظار تعامل آن‌ها با فناوری وجود دارد – و این کار را با بیشترین صراحت ممکن انجام دهند. همان‌طور که ریچارد سوچر، دانشمند ارشد سیلزفورس گفته، «در صورت به‌کارگیری هوش مصنوعی برای پیش‌بینی، کسب‌وکارها باید توضیحات لازم درباره‌ی شیوه‌‌ی تصمیم‌گیری این فناوری را در اختیار نیروهایشان بگذارند».


ضمناً یوگنیو در حال بررسی توجیهات مدنظر و قابل قبول افراد برای تصمیمات هوش مصنوعی است. آیا وقتی توجیه را بهتر قلمداد خواهند کرد که در قالب ویژگی‌هایی با ترکیب منطقی ارائه شود («تراکنش تایید شد، چون ویژگی‌های X و Y و Z را داشت») یا وقتی به‌صورت نسبی در قیاس با سایر تصمیمات ارائه گردد («تراکنش تایید شد، زیرا همان‌طور که می‌بینید بسیار شبیه سایر تراکنش‌های تاییدشده بود»)؟ با تداوم تحقیقات در زمینه‌ی عوامل توجیه‌کننده‌ی هوش مصنوعی، لازم است که سیستم‌های هوش مصنوعی هم شفاف‌تر از گذشته شوند و بستر اعتمادسازی را فراهم کنند.

پذیرش فناوری‌های جدید، یک چالش همیشگی بوده است و هرقدر تاثیرگذاری فناوری بیشتر باشد، چالش پذیرش آن نیز بزرگ‌تر خواهد بود. به‌واسطه‌ی اثرات بالقوه‌ی هوش مصنوعی، احتمالاً اجرای آن هم بسیار دشوار پنداشته می‌شود. درحالی‌که در صورت اجرای فکورانه، پذیرش آن نیز نسبتاً راحت خواهد بود. دقیقاً به همین دلیل است که کمپانی‌ها باید نظارت ویژه‌ای بر طراحی و توسعه‌ی مسئولانه‌ی هوش مصنوعی – به‌خصوص در زمینه‌های شفافیت، استقلال تصمیم، و حریم شخصی – و جلب نظر تمامی افرادی داشته باشند که با این فناوری کار می‌کنند. در غیر این صورت منطقی است که حس محدودسازی یا حتی جایگزینی به‌وسیله‌ی این ماشین‌ها را داشته باشند، زیرا هیچ درکی از شیوه‌ی تصمیم‌گیری آن‌ها در زمینه‌های مختلف ندارند.

باید بر این ترس‌ها غلبه شود تا یک رابطه‌ی آکنده از اعتماد میان انسان و هوش مصنوعی شکل گیرد. طی تمامی چهار مرحله‌ای که در این مقاله وصف شدند، انسان‌ها قوانین را تعیین می‌کنند. در صورت طراحی مسئولانه، هوش مصنوعی می‌تواند یک همکار واقعی در محیط کار باشد. به‌سرعت انبوهی از داده‌های گوناگون را پردازش می‏‌کند تا بینش و خلاقیت انسان‌ها را افزایش دهد و آن‌ها هم متقابلاً ماشین را تعلیم می‌دهند.


بوریس بابیچ استادیار علم تصمیم‌گیری در اینسید است. دنیل چن، استاد موسسه‌ی مطالعات پیشرفته در دانشکده‌ی اقتصاد تولوز و محقق ارشد برنامه‌ی «داده‌ها و شواهد انقلاب عدالت» در بانک جهانی است. تئودوروس یوگنیو، استاد علم تصمیم‌گیری و مدیریت فناوری در اینسید و مشاور سازمان مدیریت دارایی ماربل بار است. اَن-لوره فایارد دانشیار نوآوری، طراحی و مطالعات سازمان در دانشکده‌ی مهندسی از دانشگاه نیویورک است.

این مقاله در شماره ی زیر منتشر شده است:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *