اصول هوش مصنوعی سازمان همکاری و توسعه اقتصادی (OECD)
نقشه راهی برای هوش مصنوعی قابلاعتماد
رشد سریع فناوری هوش مصنوعی در سطح جهانی، بحثهای گستردهای را درباره اخلاق، مسئولیتپذیری و حقوق بشر برانگیخته است. برای پاسخ به این چالشها، سازمان همکاری و توسعه اقتصادی (OECD) مجموعهای از اصول تحت عنوان اصول هوش مصنوعی OECD منتشر کرد که نخستین استاندارد بین دولتها برای توسعه هوش مصنوعی قابلاعتماد (Trustworthy AI) به شمار میآید. این اصول چارچوبی ارائه میدهند تا بتوان اطمینان حاصل کرد که هوش مصنوعی به سود جامعه عمل میکند و درعینحال، مخاطرات احتمالی آن کاهش یابد. در ادامه به شرح این اصول میپردازیم.
۱. مقدمهای بر اصول هوش مصنوعی OECD
اصول هوش مصنوعی OECD که نخست در سال ۲۰۱۹ تدوین و در سال ۲۰۲۴ بهروزرسانی شدند، دولتها و سازمانها را در جهت توسعه سیستمهای هوش مصنوعی نوآورانه، قابلاعتماد و همسو با حقوق بشر و ارزشهای دموکراتیک راهنمایی میکنند. این اصول بنیانی برای سیاستگذاران و توسعهدهندگان هوش مصنوعی در سراسر جهان فراهم میآورند و بر ضرورت شفافیت، پاسخگویی و فراگیر بودن (Inclusivity) تأکید دارند.
۲. اصول کلیدی
الف. رشد فراگیر و توسعه پایدار
هوش مصنوعی باید محرک رشد فراگیر باشد؛ به این معنا که مزایای آن به طور عادلانه در سراسر جامعه توزیع شود و نابرابریها را تشدید نکند. این اصل مستلزم شناسایی و رفع سوگیریهای احتمالی در سیستمهای هوش مصنوعی است تا از تبعیض علیه گروههای به حاشیه راندهشده جلوگیری شود.
ب. حقوق بشر و ارزشهای دموکراتیک
هوش مصنوعی باید به حقوق بشر، تنوع فرهنگی و اصول دموکراتیک احترام بگذارد. سیستمها باید بهگونهای طراحی شوند که به انسان و جامعه انسانی آسیبی نرسانند، حریم خصوصی افراد را حفظ نموده و عدالت را رعایت کنند. مثلاً فناوریهای تشخیص چهره باید از بروز سوگیری نژادی یا جنسیتی جلوگیری کنند.
پ. شفافیت و قابلیت توضیحپذیری
سیستمهای هوش مصنوعی باید شفاف عمل کنند و تصمیماتشان برای کاربران قابلتوضیح باشد. این ویژگی به ایجاد اعتماد کمک میکند و به افراد امکان میدهد تصمیمات سیستم را به چالش بکشند. برای مثال، الگوریتمهای امتیازدهی اعتباری باید روشن کنند که دقیقاً بر چه مبنایی تصمیم گرفتهاند.
ت. امنیت و ایمنی
سیستمهای هوش مصنوعی باید در تمام چرخه عمر خود مقاوم، ایمن و پایدار باشند. این اصل شامل محافظت در برابر حملات سایبری و تضمین عملکرد صحیح در حوزههای حیاتی مانند سلامت یا حملونقل میشود.
ث. پاسخگویی (مسئولیتپذیری)
سازمانها یا شرکتهایی که هوش مصنوعی را توسعه میدهند یا به کار میگیرند، باید در برابر نتایج آن پاسخگو باشند. در صورت واردشدن آسیب از سوی سیستمهای هوش مصنوعی (مثلاً الگوریتمهای استخدامی تبعیضآمیز)، باید سازوکارهایی برای پیگیری، جبران و اصلاح وجود داشته باشد.
ج. همکاری بینالمللی
OECD بر اهمیت همکاری جهانی برای همسوسازی استانداردهای اخلاقی هوش مصنوعی تأکید دارد. مشارکتهای فرامرزی از بروز مقررات پراکنده جلوگیری کرده و به توسعه یکپارچه چارچوبهای اخلاقی کمک میکند.
۳. راهبردهای اجرایی
برای اینکه اصول هوش مصنوعی OECD صرفاً در حد شعار باقی نمانند، لازم است دولتها، نهادهای سیاستگذار، شرکتهای فناور و نهادهای مدنی، راهبردهایی مشخص، چندلایه و مبتنی بر همکاری را دنبال کنند. OECD در همین راستا سه محور کلیدی را پیشنهاد میدهد که در ادامه با توضیحات دقیقتر و نمونههای اجرایی ارائه میشوند:
الف. تدوین سیاستها و چارچوبهای قانونی
یکی از راهبردهای مهم، ترجمه اصول اخلاقی به زبان سیاستگذاری و قانونگذاری در سطح ملی است. بسیاری از کشورها از اصول OECD بهعنوان نقشه راهی برای تدوین سیاستهای خود استفاده کردهاند:
– اتحادیه اروپا از این اصول در طراحی «قانون هوش مصنوعی اتحادیه اروپا (EU AI Act)» بهره گرفته است. این قانون با رویکردی مبتنی بر سطح ریسک، استفاده از سیستمهای هوش مصنوعی را به چند دسته ریسک (کم، نیازمند رصد، بالا و ممنوعه) تقسیم میکند.
– کانادا نیز در چارچوب «رهنمودهای تصمیمگیری خودکار (Directive on Automated Decision-Making)» از اصول OECD در تعیین الزامات شفافیت و عدالت در تصمیمگیری خودکار بهره برده است.
– در ژاپن، «راهبرد جامع هوش مصنوعی» با ارجاع مستقیم به اصول OECD تنظیم شده و شامل مقرراتی درباره حقوق داده، رضایت آگاهانه و ملاحظات فرهنگی است.
ب. مشارکت چندذینفعی و گفتوگوی بینرشتهای
اجرای موفق اصول اخلاقی هوش مصنوعی نیازمند مشارکت فعال ذینفعان مختلف از جمله دولتها، صنعت، دانشگاهها و جامعه مدنی است. این مشارکت نهتنها به ارتقای کیفیت حکمرانی کمک میکند، بلکه از شکلگیری سیاستهایی با نگاه تکبعدی (فناورمحور یا دولتمحور) جلوگیری میکند:
– در کشورهای اسکاندیناوی، کمیتههای مشورتی میانرشتهای متشکل از متخصصان فناوری، جامعهشناسان، حقوقدانان و نمایندگان گروههای به حاشیه راندهشده برای سیاستگذاری در حوزه هوش مصنوعی تشکیل شدهاند.
– در آلمان، نهادهایی مانند High-Level Expert Group on AI زیر نظر دولت، جلسات عمومی و نشستهای تخصصی برای بررسی پیامدهای اجتماعی و اخلاقی هوش مصنوعی برگزار میکنند.
– نهادهای غیردولتی مانند Access Now یا AlgorithmWatch نقش مهمی در پایش نحوه اجرای این اصول توسط دولتها و شرکتهای بزرگ بازی میکنند.
پ. پایش، ارزیابی و اشتراکگذاری تجربهها
اصل پاسخگویی و بهروزرسانی مستمر، مستلزم پایش سیستماتیک اجرای اصول و ارزیابی میزان اثرگذاری آنها است. OECD در این راستا ابزارهایی ایجاد کرده که نقش کلیدی در گردآوری، تحلیل و بهاشتراکگذاری دادههای سیاستی دارند.
رصدخانه سیاستگذاری OECD در زمینه هوش مصنوعی (OECD AI Policy Observatory) بستری دیجیتال است که اطلاعات مربوط به سیاستهای هوش مصنوعی بیش از ۶۰ کشور را گردآوری کرده و امکان مقایسه و یادگیری متقابل را فراهم میکند. این پایگاه علاوه بر ارائه بانک داده، تحلیلهایی درباره روندهای جهانی، شکافهای حکمرانی و مطالعات موردی در اختیار سیاستگذاران قرار میدهد. برخی کشورها مانند کره جنوبی و سنگاپور از این اطلاعات برای محکزدن سیاستها و ارزیابی میزان هماهنگی با اصول بینالمللی استفاده میکنند.
ت. آموزش و ظرفیتسازی نهادی
نهادینهسازی اصول اخلاقی بدون آموزش گسترده متخصصان، مدیران و کاربران عمومی ممکن نیست. OECD در این زمینه نیز بر توسعه آموزش میانرشتهای و ارتقای سواد داده و سواد الگوریتمی تأکید دارد:
– دانشگاههای پیشرو مانند MIT و Oxford با همکاری نهادهای بینالمللی دورههایی با عنوان “Ethics of AI” برگزار میکنند که هم بر مباحث نظری و هم بر چالشهای عملیاتی تمرکز دارند. برخی دولتها (مانند هلند) دورههای الزامی برای کارکنان بخش دولتی طراحی کردهاند تا هنگام بهرهگیری از ابزارهای هوش مصنوعی، با اصول شفافیت، عدالت و حریم خصوصی آشنا باشند.
– توسعه سندهای راهنمای اخلاق حرفهای برای مهندسان داده و توسعهدهندگان الگوریتم نیز در راستای این هدف صورت گرفته است (مانند راهنمای IEEE برای طراحی مسئولانه هوش مصنوعی).
۴. اثرگذاری و پذیرش جهانی
اصول OECD در بسیاری از سیاستهای بینالمللی اثرگذار بودهاند؛ از جمله در قانون هوش مصنوعی اتحادیه اروپا (AI Act) و مقررات هوش مصنوعی در کانادا. تاکنون بیش از ۹۰۰ سند خطمشی ملی مرتبط با هوش مصنوعی هماهنگ با این اصول تدوین شدهاند که این امر گامی مهم در جهت توسعه اخلاقمدار این فناوری است.
۵. نکات تکمیلی و تحلیل انتقادی
اصول OECD به دلیل ماهیت بینالمللی، تطبیقپذیری بالا و تمرکز بر حقوق بشر، از جامعترین چارچوبهای حکمرانی اخلاقی در حوزه هوش مصنوعی محسوب میشوند. برخلاف برخی اسناد ملی که اغلب از منظر امنیتی یا اقتصادی به هوش مصنوعی مینگرند، این چارچوب با تأکید بر «ارزشهای مشترک بشری» تلاش میکند به تعادلی میان نوآوری فناورانه و اصول اخلاقی دست یابد.
نکته قابلتوجه، تأکید بر مشارکت چندجانبه ذینفعان در تدوین و اجرای این اصول است؛ رویکردی که از منظر انسانگرایی دیجیتال، شرط لازم برای توسعه فناوریهای پاسخگو در برابر جامعه است. همچنین، اصول OECD برخلاف بسیاری از اسناد تکنوکراتیک، بر پاسخگویی نهادی، شفافیت تصمیمات الگوریتمی و حق اعتراض افراد تأکید دارند؛ مفاهیمی که میتوانند در پاسخ به نگرانیهای فزاینده درباره «اقتدار تکنولوژیک» و تمرکز قدرت در زیرساختهای دادهمحور، نقش مهمی ایفا کنند.
بااینحال، موفقیت واقعی این چارچوب بستگی به تعهد عملی دولتها و شرکتها در اجرای دقیق و مستمر آن دارد. در غیاب نظارت فراگیر و اراده سیاسی، خطر آن وجود دارد که اصول اخلاقی صرفاً جنبه نمادین یافته و در عمل، به حاشیه رانده شوند.
۶. چالشها و مسیرهای پیشرو
با وجود پذیرش گسترده اصول هوش مصنوعی OECD در سطح بینالمللی، پیادهسازی کامل و اثربخش این اصول با چالشهای متعددی روبهروست. برخی از این چالشها ماهیتی ساختاری و برخی دیگر فلسفی، فناورانه یا سیاسی دارند. شناخت این موانع برای بهبود حکمرانی هوش مصنوعی و حرکت بهسوی توسعهای اخلاقمحور ضروری است.
الف. تنش میان نوآوری و قانونگذاری
یکی از چالشهای مهم، یافتن تعادل میان آزادی علمی و نوآوری فناورانه از یکسو، و لزوم تنظیمگری اخلاقی و حقوقی از سوی دیگر است. اگر مقررات بیشازحد سختگیرانه باشند، ممکن است توسعه فناوریهای نوظهور دچار وقفه شود یا شرکتهای نوپا توان رقابت را از دست بدهند. در مقابل، نبود مقررات مؤثر میتواند به پیامدهای زیانبار اجتماعی مانند تبعیض الگوریتمی، تضعیف حریم خصوصی یا گسترش نابرابری دامن بزند.
نمونه بارز این تنش در واکنش متفاوت ایالات متحده و اتحادیه اروپا نسبت به قانونگذاری قابل مشاهده است: ایالات متحده عمدتاً رویکردی مبتنی بر خودتنظیمی صنعت اتخاذ کرده، درحالیکه اتحادیه اروپا به سمت قانونگذاری سختگیرانه (مانند AI Act) حرکت کرده است. این شکاف رویکردها خود بهعنوان یک چالش در مسیر همکاری جهانی نیز مطرح میشود.
ب. نابرابری جهانی در منابع و ظرفیت اجرا
هرچند اصول OECD جهانی هستند، اما ظرفیت اجرایی کشورها برای پیادهسازی آنها یکسان نیست. کشورهای درحالتوسعه به دلیل کمبود منابع مالی، انسانی و نهادی، اغلب در جایگاه مصرفکننده هوش مصنوعی باقی میمانند و از مشارکت در شکلدهی به استانداردهای جهانی محروماند. این وضعیت میتواند به نابرابری دیجیتال ساختاریافته منجر شود، جایی که فناوری بهجای برقراری عدالت، شکافهای موجود را عمیقتر کند.
راهحل این چالش در گرو انتقال دانش، حمایت مالی بینالمللی و تضمین عدالت دیجیتال در سطح جهانی است. بدون حمایت معنادار از کشورهای جنوب جهانی، اصول اخلاقی به ابزارهایی ناعادلانه و نابرابر بدل خواهند شد.
پ. پویایی شتابزده فناوری و عقبماندگی سیاستگذاری
شتاب تحولات فناورانه در حوزه هوش مصنوعی، بسیار بیشتر از سرعت نهادهای قانونگذار و نهادهای اخلاقی است. ظهور فناوریهای مولد مانند مدلهای زبانی بزرگ (Large Language Models)، هوش مصنوعی خودتوسعهگر، و سامانههای تصمیمیار ترکیبی، گاه خارج از پیشبینیهای سیاستگذاران هستند.
به همین دلیل، اصول اخلاقی باید خود از ویژگی انعطافپذیری، بازنگریپذیری و همگامی با تغییرات فناورانه برخوردار باشند. همچنین، نهادهای قانونگذار باید از مشاوران فناور و اخلاقپژوهان بهره گیرند تا در ارزیابی و تنظیم مقررات، از فهمی میانرشتهای برخوردار باشند.
ت. چالشهای تفسیری و فرهنگی
مفاهیم بنیادینی مانند «عدالت»، «آزادی»، «حریم خصوصی» یا حتی «اعتماد» در فرهنگهای مختلف، تفاسیر گوناگونی دارند. اصول اخلاقی اگر صرفاً از منظر فرهنگهای غربی تبیین شوند، ممکن است در سایر نقاط جهان مقبولیت نداشته باشند. به همین دلیل، بومیسازی مفاهیم اخلاقی و در نظر گرفتن زمینههای اجتماعی-فرهنگی برای اجرای موفق اصول اخلاقی ضروری است.
برای مثال، مفهوم حریم خصوصی در کشورهای اروپایی با تأکید بر فردگرایی تعریف میشود، درحالیکه در جوامع آسیایی یا آفریقایی ممکن است با نگاهی جمعگرایانهتر یا مبتنی بر سلسلهمراتب اجتماعی تعبیر شود.
ث. مخاطرات اقتدارگرایی فناورانه و نظارت الگوریتمی
اصول اخلاقی نهتنها باید از پیامدهای ناخواسته فناوری، بلکه از سوءاستفاده عامدانه از هوش مصنوعی برای کنترل اجتماعی، نظارت گسترده و سرکوب آزادیها نیز جلوگیری کنند. در غیاب کنترلهای دموکراتیک، برخی دولتها ممکن است از فناوریهایی چون تشخیص چهره، تحلیل احساسات یا رتبهدهی اجتماعی برای تقویت اقتدارگرایی استفاده کنند.
در این زمینه، اصول OECD باید با صراحت بیشتری به ممانعت از بهرهگیری سیاسی از هوش مصنوعی برای سرکوب جامعه بپردازند و نقش نظارتی نهادهای بینالمللی را تقویت کنند.
ج. ضرورت توسعه زیرساختهای اخلاقی دیجیتال
برای تحقق عملی اصول اخلاقی، فقط وجود قوانین کافی نیست؛ بلکه باید زیرساختهایی برای ارزیابی الگوریتمها، حسابرسی اخلاقی، ابزارهای آزمون بیطرفی، و سازوکارهای بازبینی مستقل طراحی و اجرا شوند. توسعه این زیرساختها، نیازمند سرمایهگذاری و همکاری بینالمللی، بهویژه در حوزه ابزارهای متنباز و شفافپذیر است.
مسیرهای پیشرو
در پاسخ به چالشهای فوق، مسیرهای زیر برای تقویت آیندهای اخلاقمحور در حوزه هوش مصنوعی پیشنهاد میشود:
– تعامل مستمر میان حوزههای فناوری، حقوق، فلسفه و علوم اجتماعی برای بازبینی مفاهیم اخلاقی در بسترهای واقعی؛
– ایجاد نهادهای بینالمللی برای ممیزی و ارزیابی اخلاقی سیستمهای هوش مصنوعی با اختیارات مشورتی و نظارتی؛
– حمایت از کشورهای با ظرفیت پایین در زمینه اجرای اخلاق هوش مصنوعی از طریق انتقال فناوری، آموزش و تأمین منابع؛
– بومیسازی اصول جهانی در قالب راهنماها و سیاستهای ملی متناسب با زمینه فرهنگی-سیاسی هر کشور؛
– و در نهایت تقویت رویکرد مبتنی بر دادههای مشارکتی و رضایتمحور در توسعه الگوریتمها بهویژه در حوزههایی چون سلامت، آموزش و امنیت عمومی.
میتوان گفت اصول هوش مصنوعی OECD نقشه راهی ارزشمند برای توسعه هوش مصنوعی اخلاقمحور، فراگیر و سودمند برای همگان ارائه میکنند. پایبندی به این اصول به جوامع کمک میکند تا از ظرفیتهای بالقوه هوش مصنوعی بهره بگیرند، بدون آنکه حقوق بنیادین انسانی به خطر بیفتد. با ادامه تحولات در این حوزه، چارچوب ارائهشده از سوی OECD همچنان یکی از پایههای اصلی حکمرانی جهانی بر هوش مصنوعی باقی خواهد ماند.