پیشتر در مطلب حقوق بنیادی بشر از قول کارل پوپر خواندیم که متخصصان نسبت به محصولاتی که میآفرینند و استفادهای که از آن محصولات میشود، مسئول و متعهد هستند[۱]. یکی از عوامل مؤثر عملی در ایجاد و حفظ این مسئولیت باورهای متخصصان و مهندسین است. برای ایجاد یا تصحیح این باورها دروسی مثل اخلاق یا حقوق فناوری در دانشگاه تدریس میشوند، اما فرض من این است که هدف از تحصیل در برخی از دانشگاهها تنها کسب نمره قبولی از دروس و اخذ مدرک دانشگاهی است و برخی از دانشجویان و اساتید، اهتمام چندانی به درک عملی مطالب مورد تدریس ندارند. اگر این فرض را بپذیریم، برای پرورش متخصصان تأثیرگذار در جامعه و بهصورت مشخص در حوزه هوش مصنوعی، لازم است مفاهیم و مسائل فرارشتهای و بینرشتهای از جمله مسائل مطرح در حوزه اخلاق و حقوق به صورتی به متخصصان آموزش داده شود که تضمینکننده توسعه سامانههای هوش مصنوعی از سوی ایشان بر اساس آن اصول و مفاهیم باشد.
برای مثال به فهرستی از این باورهای کلیدی که تصور میکنم هر متخصص توسعهدهنده سامانههای هوش مصنوعی باید حتماً به آنها معتقد باشد، به شرح زیر اشاره میکنم.
متخصص سامانههای هوش مصنوعی در هر سطحی یا تخصصی[۲] باید:
• آگاه باشد که سامانههای هوش مصنوعی بر حقوق و فرصتهای پیش روی شهروندان تأثیر میگذارند.
• آگاه باشد که سوگیری (در داده و الگوریتم) یک چالش دائمی در طراحی، توسعه و کاربری سامانههای هوش مصنوعی است.
• آگاه باشد که سامانههای هوش مصنوعی میتوانند امنیت و ایمنی عمومی را به خطر بیندازند.
• اطمینان حاصل کند که سامانه مرتبط با او، عادل (Fair)[3]، شفاف (Transparent)[4] و پاسخگو (Responsible)[5] است.
• اطمینان حاصل کند که سامانه مرتبط با او، محافظ حقوق بنیادی بشر، حاکمیت قانون[۶] و ارزشهای دموکراتیک است.
• اطمینان حاصل کند که همگان با دیدگاههای متنوع میتوانند در تدوین، اصلاح یا پایاندادن به راهبردها و خطمشیهای مرتبط با سامانههای هوش مصنوعی، مشارکت کنند[۷].
• خدمات تخصصی خود را عینی[۸]، عادلانه و مستند به منابع و تحقیقات علمی و معتبر ارائه دهد.
• هر نوع تعارض منافعی[۹] که ممکن است بر خدمات او تأثیر بگذارد را افشا کند.
• بهصورت مستمر مسائل و خطمشیهای تدوینشده محلی و بینالمللی را بررسی نماید و از اعتبار و روزآمدی توصیهها، طرحها و محصولات خود اطمینان حاصل کند.
• اطمینان حاصل کند که سامانه مرتبط با او، انسانمحور[۱۰] و قابلاعتماد[۱۱] است.
بدیهی است که این موارد تنها مثالهایی از الزاماتی است که باید ملکه ذهن مهندسان و متخصصان هوش مصنوعی باشد و شایسته است دوستان و اساتید صاحبنظر در این حوزه، نسبت به تکمیل این فهرست اهتمام ورزند.
امیدوارم خوانندگان ارجمند، اساتید و مدیران فعال در حوزه سامانههای هوش مصنوعی با همرسانی این فهرست در ترویج این اصول و باورهای کلیدی مرا یاری نمایند.
منابع:
– بیانیه انسانگرایی دیجیتال (۲۰۱۹)
– توصیههای اخلاقی یونسکو برای سامانههای هوش مصنوعی (۲۰۲۳)
– قانون هوش مصنوعی اتحادیه اروپا (۲۰۲۱)
– اعلامیه بلچلی (Bletchley) در امنیت هوش مصنوعی (۲۰۲۳)
– رهنمودهای جهانی برای هوش مصنوعی (۲۰۱۸)
– گزارش هوش مصنوعی و ارزشهای دموکراتیک از CAIDP (2022)
– اعلامیه جهانی حقوق بشر (۱۹۴۸)
__________________________________________________
[۱] کارل پوپر، فیلسوف برجسته علم در کتاب جامعه باز و دشمنان آن (The Open Society and Its Enemies) استدلال میکند که علم و فناوری خنثی نیستند و میتوان از آنها برای خیر یا شر استفاده کرد. به همین دلیل، دانشمندان و مهندسان باید در مورد عواقب احتمالی کار خود فکر کنند و برای اطمینان از اینکه از دستاوردهای آنها برای خیر استفاده میشود، تلاش کنند. او همچنین میگوید که دانشمندان و مهندسان باید در قبال جامعه پاسخگو باشند و به مردم در مورد خطرات و مزایای علم و فناوری آگاهی دهند.
[۲] اعم از مدیر ارشد، مدیر میانی، سرپرست، کارشناس، مهندس، طراح، برنامهنویس، تحلیلگر و پشتیبان، مدیر محصول و دیگر سطوح و تخصصهای مرتبط با یک سامانه هوش مصنوعی.
[۳] منظور از عادلانهبودن یک سامانه هوش مصنوعی آن است که الگوریتمها و مدلها با همه موضوعات و افراد بدون تبعیض و تعصب رفتار کنند. این به معنای عدم وجود سوگیری در نتایج و تصمیمات هوش مصنوعی است، صرف نظر از نژاد، جنسیت، مذهب، قومیت، وضعیت اقتصادی یا هر عامل دیگری. مثلا یک الگوریتم هوش مصنوعی که برای استخدام افراد استفاده میشود، نباید به نفع یک گروه خاص از افراد نسبت به گروههای دیگر تبعیض قائل شود.
[۴] منظور از شفاف بودن یک سامانه هوش مصنوعی این است که نحوه عملکرد الگوریتمها و مدلها قابل فهم و قابل توضیح باشد. به این معنی که افراد باید بتوانند بفهمند که هوش مصنوعی چگونه به یک نتیجه خاص رسیده است و چه دادههایی برای آموزش آن استفاده شده است. مثلا یک سیستم هوش مصنوعی که برای تشخیص بیماری استفاده میشود، باید بتواند نحوه تشخیص بیماری را به طور شفاف توضیح دهد.
[۵] منظور از پاسخگو بودن یک سامانه هوش مصنوعی این است که افراد یا سازمانهایی که الگوریتمها و مدلهای آن سامانه را توسعه میدهند، در قبال عملکرد آنها پاسخگو باشند. این به این معنی است که آنها باید در قبال هرگونه آسیب یا ضرری که هوش مصنوعی ایجاد میکند، پاسخگو باشند. مثلا اگر یک الگوریتم هوش مصنوعی در یک خودرو خودران منجر به تصادف شود، شرکت سازنده خودرو باید در آن مورد پاسخگو باشد.
[۶] آنچه در این بند اهمیت بسیار پیدا میکند، اعتبار قانون در حفظ حقوق بنیادی شهروندان و ارزشهای دموکراتیک است. لذا اگر خود قانون ناقص حقوق بنیادی بشر یا ارزشهای دموکراتیک باشد، حکمرانی قانون نیز این ارزشها را نقض کرده و نمیتوان آن را به کار بست. در این مواقع لازم است از راهکارهای قانونی و مدنی برای اصلاح قانون بهره برده و قانون را در تمام سطوح، به صورتی اصلاح نمود که حافظ حقوق بنیادی بشر و ارزشهای دموکراتیک باشد.
[۷] در اصطلاح به این مشارکتها «هماندیشی عمومی» یا Public Voice Opportunity گفته میشود.
[۸] مبتنی بر شواهد و دادههای واقعی و نه بر اساس نظرات، باورها یا گرایشات شخصی و بدون تعصب یا جانبداری
[۹] اعم از مواردی همچون تعارض مالی (مشاور سهامدار شرکت توسعهدهنده سامانه است)، تعارض شخصی (مشاور از بستگان یا آشنایان شرکت توسعهدهنده سامانه است)، تعارض ایدئولوژیک (مشاور به یک ایدئولوژی یا مذهب یا باور خاص معتقد است که ممکن است بر مشاوره او تاثیر بگذارد) و تعارض علمی (مشاور متخصص هوش مصنوعی نیست). اینها مثالهای رایجی از تعارض منافع هستند که با توجه به اینکه احتمال تاثیر آنها بر سامانه هوش مصنوعی میرود، مشاوران، طراحان یا توسعهدهندگان باید آن را افشا کنند. این به افراد اجازه میدهد تا آگاهانه در مورد استفاده از مشاوره یا عدم استفاده از آن تصمیم بگیرند و به صورتی عمل کنند که تاثیر تعارض را کمینه کند.
[۱۰] سامانههای هوش مصنوعی باید به صورتی طراحی شوند که نیازها و خواستههای انسان را در اولویت قرارداده و تامین کننده منافع انسانها باشند و هیچگونه زیانی برای انسانها در پی نداشته باشند.
[۱۱] سامانههای هوش مصنوعی باید آنقدر شفاف و قابل درک باشند که بهرهبرداران بتوانند به عملکرد صحیح و دقیق سامانههای هوش مصنوعی به صورت کامل اعتماد کنند.