Home / مطالب خواندنی / آلگوریتم‌گریزی . Algorithm Aversion
آلگوریتم‌گریزی . Algorithm Aversion

آلگوریتم‌گریزی . Algorithm Aversion

آلگوریتم‌گریزی (Algorithm Aversion) به گرایشی اشاره دارد که افراد به واسطه آن از الگوریتم‌ها دوری کرده و حتی اگر در مورد مشخصی ثابت شود که الگوریتم‌ها از قضاوت انسانی دقیق‌تر هستند، به آن‌ها بی‌اعتماد می‌شوند. این بی‌اعتمادی از این باور شهودی انسانی ناشی می‌شود که «ماشین‌ها باید بی‌نقص و کاملاً بدون اشتباه باشند». به‌محض اینکه افراد متوجه می‌شوند الگوریتمی اشتباه می‌کند، تمایل دارند آن را کنار گذاشته و دوباره به قضاوت خود اعتماد کنند. (Kahneman, 2013; Kahneman et al., 2021; Werthner et al., 2022)
البته، افراد همیشه نسبت به الگوریتم‌ها بدبین نیستند. گاهی اوقات، زمانی که به آن‌ها حق انتخاب داده می‌شود، ترجیح می‌دهند به‌جای مشاوره انسانی، از یک الگوریتم استفاده کنند. مقاومت در برابر استفاده از الگوریتم‌ها همیشه به معنای رد کامل آن‌ها نیست، اما هر چه تصمیم مهم‌تر باشد، این مقاومت بیشتر دیده می‌شود.
از دلایل الگوریتم‌گریزی این است که افراد به‌خوبی از خطاپذیری خود آگاه هستند، اما این درک را به ماشین‌ها تعمیم نمی‌دهند. داستان‌های مربوط به اشتباهات الگوریتمی معمولاً برای افراد تأثیرگذارتر از داستان‌های اشتباهات انسانی هستند که همین موضوع باعث ایجاد ترجیح اخلاقی نسبت به قضاوت انسانی می‌شود.
کتاب نویز (Noise) از دانیل کانمن مثالی درباره تصمیم‌گیری‌های مربوط به استخدام و ارتقا زده است. بسیاری از سازمان‌ها برای این تصمیمات از الگوریتم‌ها استفاده نمی‌کنند. این در حالی است که الگوریتم‌ها می‌توانند «نویز» تصمیمات را از بین ببرند و باعث بالارفتن دقت تصمیمات شوند، اما متخصصان منابع انسانی معمولاً ترجیح می‌دهند به حس شهودی خود اعتماد کنند و معتقدند که الگوریتم‌ها نمی‌توانند جایگزین قضاوت آن‌ها شوند. این رفتار در حالی است که مطالعات نشان داده‌اند الگوریتم‌های ساده در حوزه‌های مختلف، از جمله انتخاب پرسنل، از قضاوت انسانی بهتر عمل می‌کنند (هر چند این الگوریتم‌ها می‌توانند با سوگیری‌های پیدا و پنهان زیادی همراه باشند).(Kahneman et al., 2021)
برای مثال الگوریتم‌گریزی در فرایندهای استخدام احتمالاً ناشی از ترکیبی از عوامل زیر است:
– باور به اینکه قضاوت انسانی در ارزیابی موقعیت‌های اجتماعی پیچیده برتر است.
– ترس از اینکه الگوریتم‌ها ممکن است دچار سوگیری یا ناعادلانه باشند.
– تمایل به حفظ کنترل انسانی بر تصمیمات مهم.
در موارد دیگر نیز می‌توان مثال‌های مشابه زیادی بیان نمود.
کانمن در کتاب تفکر، سریع و آهسته (Thinking, Fast and Slow)، به ترس از الگوریتم‌ها، به‌ویژه در موقعیت‌های حساس، اشاره می‌کند. او به پزشکانی اشاره می‌کند که از این ایده که یک الگوریتم «کور و مکانیکی» ممکن است به‌اشتباه، درمان بیماری را نادیده بگیرد، وحشت دارند. این مثال نشان‌دهنده ابعاد احساسی و اخلاقی ترس از الگوریتم‌ها است. مردم نسبت به‌اشتباه جدی یک الگوریتم، بیشتر از اشتباه مشابه یک انسان واکنش احساسی نشان می‌دهند.(Kahneman, 2013)
انسان‌گرایی دیجیتال (Digital Humanism) بر رویکرد انسان‌محور در فناوری تأکید دارد و تمرکز را بر انسان و ارزش‌های انسانی قرار می‌دهد. بااین‌حال، با افزایش نقش الگوریتم‌ها در فرایندهای تصمیم‌گیری، نگرانی‌هایی درباره تأثیر آن‌ها بر خودمختاری و عاملیت انسانی ایجاد شده است.(Werthner et al., 2022)
هر چند منابع مرتبط با انسان‌گرایی دیجیتال دیدگاهی دقیق درباره ترس از الگوریتم‌ها ارائه می‌دهند. درحالی‌که تأیید می‌کنند الگوریتم‌ها در برخی وظایف از انسان‌ها بهتر عمل می‌کنند، بر شفافیت و پاسخ‌گویی در طراحی و اجرای آن‌ها تأکید دارند. تمرکز باید بر توسعه فناوری‌هایی باشد که با ارزش‌ها و نیازهای انسانی همسو باشند، نه اینکه اجازه دهیم فناوری‌ها انسان‌ها را تغییر دهند. برای مثال، سیستم‌های توصیه‌گر (Recommender Systems) اگر به‌درستی طراحی نشوند، می‌توانند به ایجاد حباب‌های اطلاعاتی و تقویت سوگیری‌های موجود منجر شوند.(Werthner et al., 2024)
هم کانمن و هم منابع انسان‌گرایی دیجیتال پیشنهاد می‌کنند که ترس از الگوریتم‌ها احتمالاً با ادغام بیشتر آن‌ها در زندگی روزمره کاهش خواهد یافت. گسترش استفاده از الگوریتم‌ها در زندگی روزمره و حوزه‌های کم‌اهمیت‌تر، مانند پیشنهاد موسیقی، ممکن است به عادی‌سازی استفاده از آن‌ها و ایجاد اعتماد کمک کند و از سوی دیگر بالارفتن سطح آگاهی جامعه نسبت به آن‌ها، همراه با تلاش برای شفاف‌تر کردن و توضیح‌پذیر کردن تصمیمات الگوریتم‌ها، احتمالاً این ترس را کاهش داده و اثر پدیده الگوریتم‌گریزی را کمتر خواهد کرد.

منابع

– Kahneman, D., 2013. Thinking, fast and slow, 1st pbk. ed. ed. Farrar, Straus and Giroux, New York.
– Kahneman, D., Sibony, O., Sunstein, C.R., 2021. Noise: a flaw in human judgment. William Collins, London.
– Werthner, H., Ghezzi, C., Kramer, J., Nida-Rümelin, J., Nuseibeh, B., Prem, E., Stanger, A. (Eds.), 2024. Introduction to Digital Humanism: A Textbook. Springer Nature, Cham.
– Werthner, H., Prem, E., Lee, E.A., Ghezzi, C. (Eds.), 2022. Perspectives on Digital Humanism.
Image from: intellyx.com



About علیرضا صائبی

AI Consultant | Data Scientist | NLP Expert | SNA Expert مشاور هوشمندسازی کسب‌وکار، فعال در حوزه پردازش زبان طبیعی و علوم داده.

Check Also

چارچوب HLEG AI و ارزیابی هوش مصنوعی قابل اعتماد (ALTAI)

چارچوب HLEG AI و ارزیابی هوش مصنوعی قابل اعتماد (ALTAI)

چارچوب HLEG AI و ارزیابی هوش مصنوعی قابل اعتماد (ALTAI[1]) هر روز دستاورد جدیدی در ...

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

18 − هشت =