خانه / مطالب خواندنی / باورهای کلیدی متخصصان سامانه‌های هوش مصنوعی

باورهای کلیدی متخصصان سامانه‌های هوش مصنوعی

زمان مطالعه: 4 دقیقه

پیش‌تر در مطلب حقوق بنیادی بشر از قول کارل پوپر خواندیم که متخصصان نسبت به محصولاتی که می‌آفرینند و استفاده‌ای که از آن محصولات می‌شود، مسئول و متعهد هستند[۱]. یکی از عوامل مؤثر عملی در ایجاد و حفظ این مسئولیت باورهای متخصصان و مهندسین است. برای ایجاد یا تصحیح این باورها دروسی مثل اخلاق یا حقوق فناوری در دانشگاه تدریس می‌شوند، اما فرض من این است که هدف از تحصیل در برخی از دانشگاه‌ها تنها کسب نمره قبولی از دروس و اخذ مدرک دانشگاهی است و برخی از دانشجویان و اساتید، اهتمام چندانی به درک عملی مطالب مورد تدریس ندارند. اگر این فرض را بپذیریم، برای پرورش متخصصان تأثیرگذار در جامعه و به‌صورت مشخص در حوزه هوش مصنوعی، لازم است مفاهیم و مسائل فرارشته‌ای و بین‌رشته‌ای از جمله مسائل مطرح در حوزه اخلاق و حقوق به صورتی به متخصصان آموزش داده شود که تضمین‌کننده توسعه سامانه‌های هوش مصنوعی از سوی ایشان بر اساس آن اصول و مفاهیم باشد.
برای مثال به فهرستی از این باورهای کلیدی که تصور می‌کنم هر متخصص توسعه‌دهنده سامانه‌های هوش مصنوعی باید حتماً به آن‌ها معتقد باشد، به شرح زیر اشاره می‌کنم.
متخصص سامانه‌های هوش مصنوعی در هر سطحی یا تخصصی[۲] باید:
• آگاه باشد که سامانه‌های هوش مصنوعی بر حقوق و فرصت‌های پیش روی شهروندان تأثیر می‌گذارند.
• آگاه باشد که سوگیری (در داده و الگوریتم) یک چالش دائمی در طراحی، توسعه و کاربری سامانه‌های هوش مصنوعی است.
• آگاه باشد که سامانه‌های هوش مصنوعی می‌توانند امنیت و ایمنی عمومی را به خطر بیندازند.
• اطمینان حاصل کند که سامانه مرتبط با او، عادل (Fair)[3]، شفاف (Transparent)[4] و پاسخگو (Responsible)[5] است.
• اطمینان حاصل کند که سامانه مرتبط با او، محافظ حقوق بنیادی بشر، حاکمیت قانون[۶] و ارزش‌های دموکراتیک است.
• اطمینان حاصل کند که همگان با دیدگاه‌های متنوع می‌توانند در تدوین، اصلاح یا پایان‌دادن به راهبردها و خط‌مشی‌های مرتبط با سامانه‌های هوش مصنوعی، مشارکت کنند[۷].
• خدمات تخصصی خود را عینی[۸]، عادلانه و مستند به منابع و تحقیقات علمی و معتبر ارائه دهد.
• هر نوع تعارض منافعی[۹] که ممکن است بر خدمات او تأثیر بگذارد را افشا کند.
• به‌صورت مستمر مسائل و خط‌مشی‌های تدوین‌شده محلی و بین‌المللی را بررسی نماید و از اعتبار و روزآمدی توصیه‌ها، طرح‌ها و محصولات خود اطمینان حاصل کند.
• اطمینان حاصل کند که سامانه مرتبط با او، انسان‌محور[۱۰] و قابل‌اعتماد[۱۱] است.
بدیهی است که این موارد تنها مثال‌هایی از الزاماتی است که باید ملکه ذهن مهندسان و متخصصان هوش مصنوعی باشد و شایسته است دوستان و اساتید صاحب‌نظر در این حوزه، نسبت به تکمیل این فهرست اهتمام ورزند.
امیدوارم خوانندگان ارجمند، اساتید و مدیران فعال در حوزه سامانه‌های هوش مصنوعی با همرسانی این فهرست در ترویج این اصول و باورهای کلیدی مرا یاری نمایند.

منابع:
بیانیه انسان‌گرایی دیجیتال (۲۰۱۹)
توصیه‌های اخلاقی یونسکو برای سامانه‌های هوش مصنوعی (۲۰۲۳)
قانون هوش مصنوعی اتحادیه اروپا (۲۰۲۱)
– اعلامیه بلچلی (Bletchley) در امنیت هوش مصنوعی (۲۰۲۳)
رهنمودهای جهانی برای هوش مصنوعی (۲۰۱۸)
گزارش هوش مصنوعی و ارزش‌های دموکراتیک از CAIDP (2022)
اعلامیه جهانی حقوق بشر (۱۹۴۸)

__________________________________________________
[۱] کارل پوپر، فیلسوف برجسته علم در کتاب جامعه باز و دشمنان آن (The Open Society and Its Enemies) استدلال می‌کند که علم و فناوری خنثی نیستند و می‌توان از آنها برای خیر یا شر استفاده کرد. به همین دلیل، دانشمندان و مهندسان باید در مورد عواقب احتمالی کار خود فکر کنند و برای اطمینان از اینکه از دستاوردهای آنها برای خیر استفاده می‌شود، تلاش کنند. او همچنین می‌گوید که دانشمندان و مهندسان باید در قبال جامعه پاسخگو باشند و به مردم در مورد خطرات و مزایای علم و فناوری آگاهی دهند.
[۲] اعم از مدیر ارشد، مدیر میانی، سرپرست، کارشناس، مهندس، طراح، برنامه‌نویس، تحلیل‌گر و پشتیبان، مدیر محصول و دیگر سطوح و تخصص‌های مرتبط با یک سامانه هوش مصنوعی.
[۳] منظور از عادلانه‌بودن یک سامانه هوش مصنوعی آن است که الگوریتم‌ها و مدل‌ها با همه موضوعات و افراد بدون تبعیض و تعصب رفتار کنند. این به معنای عدم وجود سوگیری در نتایج و تصمیمات هوش مصنوعی است، صرف نظر از نژاد، جنسیت، مذهب، قومیت، وضعیت اقتصادی یا هر عامل دیگری. مثلا یک الگوریتم هوش مصنوعی که برای استخدام افراد استفاده می‌شود، نباید به نفع یک گروه خاص از افراد نسبت به گروه‌های دیگر تبعیض قائل شود.
[۴] منظور از شفاف بودن یک سامانه هوش مصنوعی این است که نحوه عملکرد الگوریتم‌ها و مدل‌ها قابل فهم و قابل توضیح باشد. به این معنی که افراد باید بتوانند بفهمند که هوش مصنوعی چگونه به یک نتیجه خاص رسیده است و چه داده‌هایی برای آموزش آن استفاده شده است. مثلا یک سیستم هوش مصنوعی که برای تشخیص بیماری استفاده می‌شود، باید بتواند نحوه تشخیص بیماری را به طور شفاف توضیح دهد.
[۵] منظور از پاسخگو بودن یک سامانه هوش مصنوعی این است که افراد یا سازمان‌هایی که الگوریتم‌ها و مدل‌های آن سامانه را توسعه می‌دهند، در قبال عملکرد آنها پاسخگو باشند. این به این معنی است که آنها باید در قبال هرگونه آسیب یا ضرری که هوش مصنوعی ایجاد می‌کند، پاسخگو باشند. مثلا اگر یک الگوریتم هوش مصنوعی در یک خودرو خودران منجر به تصادف شود، شرکت سازنده خودرو باید در آن مورد پاسخگو باشد.
[۶] آنچه در این بند اهمیت بسیار پیدا می‌کند، اعتبار قانون در حفظ حقوق بنیادی شهروندان و ارزش‌های دموکراتیک است. لذا اگر خود قانون ناقص حقوق بنیادی بشر یا ارزش‌های دموکراتیک باشد، حکمرانی قانون نیز این ارزش‌ها را نقض کرده و نمی‌توان آن را به کار بست. در این مواقع لازم است از راهکارهای قانونی و مدنی برای اصلاح قانون بهره برده و قانون را در تمام سطوح، به صورتی اصلاح نمود که حافظ حقوق بنیادی بشر و ارزش‌های دموکراتیک باشد.
[۷] در اصطلاح به این مشارکت‌ها «هم‌اندیشی عمومی» یا Public Voice Opportunity گفته می‌شود.
[۸] مبتنی بر شواهد و داده‌های واقعی و نه بر اساس نظرات، باورها یا گرایشات شخصی و بدون تعصب یا جانبداری
[۹] اعم از مواردی همچون تعارض مالی (مشاور سهامدار شرکت توسعه‌دهنده سامانه است)، تعارض شخصی (مشاور از بستگان یا آشنایان شرکت توسعه‌دهنده سامانه است)، تعارض ایدئولوژیک (مشاور به یک ایدئولوژی یا مذهب یا باور خاص معتقد است که ممکن است بر مشاوره او تاثیر بگذارد) و تعارض علمی (مشاور متخصص هوش مصنوعی نیست). این‌ها مثال‌های رایجی از تعارض منافع هستند که با توجه به اینکه احتمال تاثیر آن‌ها بر سامانه هوش مصنوعی می‌رود، مشاوران، طراحان یا توسعه‌دهندگان باید آن را افشا کنند. این به افراد اجازه می‌دهد تا آگاهانه در مورد استفاده از مشاوره یا عدم استفاده از آن تصمیم بگیرند و به صورتی عمل کنند که تاثیر تعارض را کمینه کند.
[۱۰] سامانه‌های هوش مصنوعی باید به صورتی طراحی شوند که نیازها و خواسته‌های انسان را در اولویت قرارداده و تامین کننده منافع انسان‌ها باشند و هیچگونه زیانی برای انسان‌ها در پی نداشته باشند.
[۱۱] سامانه‌های هوش مصنوعی باید آنقدر شفاف و قابل درک باشند که بهره‌برداران بتوانند به عملکرد صحیح و دقیق سامانه‌های هوش مصنوعی به صورت کامل اعتماد کنند.



درباره ی علیرضا صائبی

AI Consultant | Data Scientist | NLP Expert | SNA Expert مشاور هوشمندسازی کسب‌وکار، فعال در حوزه پردازش زبان طبیعی و علوم داده.

همچنین ببینید

هوش مصنوعی و ارزش‌های دموکراتیک

زمان مطالعه: 3 دقیقه مرکز هوش مصنوعی و خط‌مشی دیجیتال (CAIDP) هر سال گزارشی به نام گزارش [۱]AIDV منتشر ...

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

1 × 5 =