Home / هوش مصنوعی / اصول هوش مصنوعی سازمان همکاری و توسعه اقتصادی (OECD)
اصول هوش مصنوعی سازمان همکاری و توسعه اقتصادی (OECD)

اصول هوش مصنوعی سازمان همکاری و توسعه اقتصادی (OECD)

اصول هوش مصنوعی سازمان همکاری و توسعه اقتصادی (OECD)
نقشه راهی برای هوش مصنوعی قابل‌اعتماد

رشد سریع فناوری هوش مصنوعی در سطح جهانی، بحث‌های گسترده‌ای را درباره اخلاق، مسئولیت‌پذیری و حقوق بشر برانگیخته است. برای پاسخ به این چالش‌ها، سازمان همکاری و توسعه اقتصادی (OECD) مجموعه‌ای از اصول تحت عنوان اصول هوش مصنوعی OECD منتشر کرد که نخستین استاندارد بین دولت‌ها برای توسعه هوش مصنوعی قابل‌اعتماد (Trustworthy AI) به شمار می‌آید. این اصول چارچوبی ارائه می‌دهند تا بتوان اطمینان حاصل کرد که هوش مصنوعی به سود جامعه عمل می‌کند و درعین‌حال، مخاطرات احتمالی آن کاهش یابد. در ادامه به شرح این اصول می‌پردازیم.

۱. مقدمه‌ای بر اصول هوش مصنوعی OECD
اصول هوش مصنوعی OECD که نخست در سال ۲۰۱۹ تدوین و در سال ۲۰۲۴ به‌روزرسانی شدند، دولت‌ها و سازمان‌ها را در جهت توسعه سیستم‌های هوش مصنوعی نوآورانه، قابل‌اعتماد و همسو با حقوق بشر و ارزش‌های دموکراتیک راهنمایی می‌کنند. این اصول بنیانی برای سیاست‌گذاران و توسعه‌دهندگان هوش مصنوعی در سراسر جهان فراهم می‌آورند و بر ضرورت شفافیت، پاسخ‌گویی و فراگیر بودن (Inclusivity) تأکید دارند.

۲. اصول کلیدی
الف. رشد فراگیر و توسعه پایدار
هوش مصنوعی باید محرک رشد فراگیر باشد؛ به این معنا که مزایای آن به طور عادلانه در سراسر جامعه توزیع شود و نابرابری‌ها را تشدید نکند. این اصل مستلزم شناسایی و رفع سوگیری‌های احتمالی در سیستم‌های هوش مصنوعی است تا از تبعیض علیه گروه‌های به حاشیه رانده‌شده جلوگیری شود.

ب. حقوق بشر و ارزش‌های دموکراتیک
هوش مصنوعی باید به حقوق بشر، تنوع فرهنگی و اصول دموکراتیک احترام بگذارد. سیستم‌ها باید به‌گونه‌ای طراحی شوند که به انسان و جامعه انسانی آسیبی نرسانند، حریم خصوصی افراد را حفظ نموده و عدالت را رعایت کنند. مثلاً فناوری‌های تشخیص چهره باید از بروز سوگیری نژادی یا جنسیتی جلوگیری کنند.

پ. شفافیت و قابلیت توضیح‌پذیری
سیستم‌های هوش مصنوعی باید شفاف عمل کنند و تصمیماتشان برای کاربران قابل‌توضیح باشد. این ویژگی به ایجاد اعتماد کمک می‌کند و به افراد امکان می‌دهد تصمیمات سیستم را به چالش بکشند. برای مثال، الگوریتم‌های امتیازدهی اعتباری باید روشن کنند که دقیقاً بر چه مبنایی تصمیم گرفته‌اند.

ت. امنیت و ایمنی
سیستم‌های هوش مصنوعی باید در تمام چرخه عمر خود مقاوم، ایمن و پایدار باشند. این اصل شامل محافظت در برابر حملات سایبری و تضمین عملکرد صحیح در حوزه‌های حیاتی مانند سلامت یا حمل‌ونقل می‌شود.

ث. پاسخ‌گویی (مسئولیت‌پذیری)
سازمان‌ها یا شرکت‌هایی که هوش مصنوعی را توسعه می‌دهند یا به کار می‌گیرند، باید در برابر نتایج آن پاسخ‌گو باشند. در صورت واردشدن آسیب از سوی سیستم‌های هوش مصنوعی (مثلاً الگوریتم‌های استخدامی تبعیض‌آمیز)، باید سازوکارهایی برای پیگیری، جبران و اصلاح وجود داشته باشد.

ج. همکاری بین‌المللی
OECD بر اهمیت همکاری جهانی برای همسوسازی استانداردهای اخلاقی هوش مصنوعی تأکید دارد. مشارکت‌های فرامرزی از بروز مقررات پراکنده جلوگیری کرده و به توسعه یکپارچه چارچوب‌های اخلاقی کمک می‌کند.

۳. راهبردهای اجرایی
برای اینکه اصول هوش مصنوعی OECD صرفاً در حد شعار باقی نمانند، لازم است دولت‌ها، نهادهای سیاست‌گذار، شرکت‌های فناور و نهادهای مدنی، راهبردهایی مشخص، چندلایه و مبتنی بر همکاری را دنبال کنند. OECD در همین راستا سه محور کلیدی را پیشنهاد می‌دهد که در ادامه با توضیحات دقیق‌تر و نمونه‌های اجرایی ارائه می‌شوند:

الف. تدوین سیاست‌ها و چارچوب‌های قانونی
یکی از راهبردهای مهم، ترجمه اصول اخلاقی به زبان سیاست‌گذاری و قانون‌گذاری در سطح ملی است. بسیاری از کشورها از اصول OECD به‌عنوان نقشه راهی برای تدوین سیاست‌های خود استفاده کرده‌اند:
– اتحادیه اروپا از این اصول در طراحی «قانون هوش مصنوعی اتحادیه اروپا (EU AI Act)» بهره گرفته است. این قانون با رویکردی مبتنی بر سطح ریسک، استفاده از سیستم‌های هوش مصنوعی را به چند دسته ریسک (کم، نیازمند رصد، بالا و ممنوعه) تقسیم می‌کند.
– کانادا نیز در چارچوب «رهنمودهای تصمیم‌گیری خودکار (Directive on Automated Decision-Making)» از اصول OECD در تعیین الزامات شفافیت و عدالت در تصمیم‌گیری خودکار بهره برده است.
– در ژاپن، «راهبرد جامع هوش مصنوعی» با ارجاع مستقیم به اصول OECD تنظیم شده و شامل مقرراتی درباره حقوق داده، رضایت آگاهانه و ملاحظات فرهنگی است.

ب. مشارکت چندذی‌نفعی و گفت‌وگوی بین‌رشته‌ای
اجرای موفق اصول اخلاقی هوش مصنوعی نیازمند مشارکت فعال ذی‌نفعان مختلف از جمله دولت‌ها، صنعت، دانشگاه‌ها و جامعه مدنی است. این مشارکت نه‌تنها به ارتقای کیفیت حکمرانی کمک می‌کند، بلکه از شکل‌گیری سیاست‌هایی با نگاه تک‌بعدی (فناورمحور یا دولت‌محور) جلوگیری می‌کند:
– در کشورهای اسکاندیناوی، کمیته‌های مشورتی میان‌رشته‌ای متشکل از متخصصان فناوری، جامعه‌شناسان، حقوق‌دانان و نمایندگان گروه‌های به حاشیه رانده‌شده برای سیاست‌گذاری در حوزه هوش مصنوعی تشکیل شده‌اند.
– در آلمان، نهادهایی مانند High-Level Expert Group on AI زیر نظر دولت، جلسات عمومی و نشست‌های تخصصی برای بررسی پیامدهای اجتماعی و اخلاقی هوش مصنوعی برگزار می‌کنند.
– نهادهای غیردولتی مانند Access Now یا AlgorithmWatch نقش مهمی در پایش نحوه اجرای این اصول توسط دولت‌ها و شرکت‌های بزرگ بازی می‌کنند.

پ. پایش، ارزیابی و اشتراک‌گذاری تجربه‌ها
اصل پاسخ‌گویی و به‌روزرسانی مستمر، مستلزم پایش سیستماتیک اجرای اصول و ارزیابی میزان اثرگذاری آن‌ها است. OECD در این راستا ابزارهایی ایجاد کرده که نقش کلیدی در گردآوری، تحلیل و به‌اشتراک‌گذاری داده‌های سیاستی دارند.
رصدخانه سیاست‌گذاری OECD در زمینه هوش مصنوعی (OECD AI Policy Observatory) بستری دیجیتال است که اطلاعات مربوط به سیاست‌های هوش مصنوعی بیش از ۶۰ کشور را گردآوری کرده و امکان مقایسه و یادگیری متقابل را فراهم می‌کند. این پایگاه علاوه بر ارائه بانک داده، تحلیل‌هایی درباره روندهای جهانی، شکاف‌های حکمرانی و مطالعات موردی در اختیار سیاست‌گذاران قرار می‌دهد. برخی کشورها مانند کره جنوبی و سنگاپور از این اطلاعات برای محک‌زدن سیاست‌ها و ارزیابی میزان هماهنگی با اصول بین‌المللی استفاده می‌کنند.

ت. آموزش و ظرفیت‌سازی نهادی
نهادینه‌سازی اصول اخلاقی بدون آموزش گسترده متخصصان، مدیران و کاربران عمومی ممکن نیست. OECD در این زمینه نیز بر توسعه آموزش میان‌رشته‌ای و ارتقای سواد داده و سواد الگوریتمی تأکید دارد:
– دانشگاه‌های پیشرو مانند MIT و Oxford با همکاری نهادهای بین‌المللی دوره‌هایی با عنوان “Ethics of AI” برگزار می‌کنند که هم بر مباحث نظری و هم بر چالش‌های عملیاتی تمرکز دارند. برخی دولت‌ها (مانند هلند) دوره‌های الزامی برای کارکنان بخش دولتی طراحی کرده‌اند تا هنگام بهره‌گیری از ابزارهای هوش مصنوعی، با اصول شفافیت، عدالت و حریم خصوصی آشنا باشند.
– توسعه سندهای راهنمای اخلاق حرفه‌ای برای مهندسان داده و توسعه‌دهندگان الگوریتم نیز در راستای این هدف صورت گرفته است (مانند راهنمای IEEE برای طراحی مسئولانه هوش مصنوعی).

۴. اثرگذاری و پذیرش جهانی
اصول OECD در بسیاری از سیاست‌های بین‌المللی اثرگذار بوده‌اند؛ از جمله در قانون هوش مصنوعی اتحادیه اروپا (AI Act) و مقررات هوش مصنوعی در کانادا. تاکنون بیش از ۹۰۰ سند خط‌مشی ملی مرتبط با هوش مصنوعی هماهنگ با این اصول تدوین شده‌اند که این امر گامی مهم در جهت توسعه اخلاق‌مدار این فناوری است.

۵. نکات تکمیلی و تحلیل انتقادی
اصول OECD به دلیل ماهیت بین‌المللی، تطبیق‌پذیری بالا و تمرکز بر حقوق بشر، از جامع‌ترین چارچوب‌های حکمرانی اخلاقی در حوزه هوش مصنوعی محسوب می‌شوند. برخلاف برخی اسناد ملی که اغلب از منظر امنیتی یا اقتصادی به هوش مصنوعی می‌نگرند، این چارچوب با تأکید بر «ارزش‌های مشترک بشری» تلاش می‌کند به تعادلی میان نوآوری فناورانه و اصول اخلاقی دست یابد.
نکته قابل‌توجه، تأکید بر مشارکت چندجانبه ذی‌نفعان در تدوین و اجرای این اصول است؛ رویکردی که از منظر انسان‌گرایی دیجیتال، شرط لازم برای توسعه فناوری‌های پاسخ‌گو در برابر جامعه است. همچنین، اصول OECD برخلاف بسیاری از اسناد تکنوکراتیک، بر پاسخ‌گویی نهادی، شفافیت تصمیمات الگوریتمی و حق اعتراض افراد تأکید دارند؛ مفاهیمی که می‌توانند در پاسخ به نگرانی‌های فزاینده درباره «اقتدار تکنولوژیک» و تمرکز قدرت در زیرساخت‌های داده‌محور، نقش مهمی ایفا کنند.
بااین‌حال، موفقیت واقعی این چارچوب بستگی به تعهد عملی دولت‌ها و شرکت‌ها در اجرای دقیق و مستمر آن دارد. در غیاب نظارت فراگیر و اراده سیاسی، خطر آن وجود دارد که اصول اخلاقی صرفاً جنبه نمادین یافته و در عمل، به حاشیه رانده شوند.

۶. چالش‌ها و مسیرهای پیش‌رو
با وجود پذیرش گسترده اصول هوش مصنوعی OECD در سطح بین‌المللی، پیاده‌سازی کامل و اثربخش این اصول با چالش‌های متعددی روبه‌روست. برخی از این چالش‌ها ماهیتی ساختاری و برخی دیگر فلسفی، فناورانه یا سیاسی دارند. شناخت این موانع برای بهبود حکمرانی هوش مصنوعی و حرکت به‌سوی توسعه‌ای اخلاق‌محور ضروری است.

الف. تنش میان نوآوری و قانون‌گذاری
یکی از چالش‌های مهم، یافتن تعادل میان آزادی علمی و نوآوری فناورانه از یک‌سو، و لزوم تنظیم‌گری اخلاقی و حقوقی از سوی دیگر است. اگر مقررات بیش‌ازحد سخت‌گیرانه باشند، ممکن است توسعه فناوری‌های نوظهور دچار وقفه شود یا شرکت‌های نوپا توان رقابت را از دست بدهند. در مقابل، نبود مقررات مؤثر می‌تواند به پیامدهای زیان‌بار اجتماعی مانند تبعیض الگوریتمی، تضعیف حریم خصوصی یا گسترش نابرابری دامن بزند.
نمونه بارز این تنش در واکنش متفاوت ایالات متحده و اتحادیه اروپا نسبت به قانون‌گذاری قابل مشاهده است: ایالات متحده عمدتاً رویکردی مبتنی بر خودتنظیمی صنعت اتخاذ کرده، درحالی‌که اتحادیه اروپا به سمت قانون‌گذاری سخت‌گیرانه (مانند AI Act) حرکت کرده است. این شکاف رویکردها خود به‌عنوان یک چالش در مسیر همکاری جهانی نیز مطرح می‌شود.

ب. نابرابری جهانی در منابع و ظرفیت اجرا
هرچند اصول OECD جهانی هستند، اما ظرفیت اجرایی کشورها برای پیاده‌سازی آن‌ها یکسان نیست. کشورهای درحال‌توسعه به دلیل کمبود منابع مالی، انسانی و نهادی، اغلب در جایگاه مصرف‌کننده هوش مصنوعی باقی می‌مانند و از مشارکت در شکل‌دهی به استانداردهای جهانی محروم‌اند. این وضعیت می‌تواند به نابرابری دیجیتال ساختاریافته منجر شود، جایی که فناوری به‌جای برقراری عدالت، شکاف‌های موجود را عمیق‌تر کند.
راه‌حل این چالش در گرو انتقال دانش، حمایت مالی بین‌المللی و تضمین عدالت دیجیتال در سطح جهانی است. بدون حمایت معنادار از کشورهای جنوب جهانی، اصول اخلاقی به ابزارهایی ناعادلانه و نابرابر بدل خواهند شد.

پ. پویایی شتاب‌زده فناوری و عقب‌ماندگی سیاست‌گذاری
شتاب تحولات فناورانه در حوزه هوش مصنوعی، بسیار بیشتر از سرعت نهادهای قانون‌گذار و نهادهای اخلاقی است. ظهور فناوری‌های مولد مانند مدل‌های زبانی بزرگ (Large Language Models)، هوش مصنوعی خودتوسعه‌گر، و سامانه‌های تصمیم‌یار ترکیبی، گاه خارج از پیش‌بینی‌های سیاست‌گذاران هستند.
به همین دلیل، اصول اخلاقی باید خود از ویژگی انعطاف‌پذیری، بازنگری‌پذیری و همگامی با تغییرات فناورانه برخوردار باشند. همچنین، نهادهای قانون‌گذار باید از مشاوران فناور و اخلاق‌پژوهان بهره گیرند تا در ارزیابی و تنظیم مقررات، از فهمی میان‌رشته‌ای برخوردار باشند.

ت. چالش‌های تفسیری و فرهنگی
مفاهیم بنیادینی مانند «عدالت»، «آزادی»، «حریم خصوصی» یا حتی «اعتماد» در فرهنگ‌های مختلف، تفاسیر گوناگونی دارند. اصول اخلاقی اگر صرفاً از منظر فرهنگ‌های غربی تبیین شوند، ممکن است در سایر نقاط جهان مقبولیت نداشته باشند. به همین دلیل، بومی‌سازی مفاهیم اخلاقی و در نظر گرفتن زمینه‌های اجتماعی-فرهنگی برای اجرای موفق اصول اخلاقی ضروری است.
برای مثال، مفهوم حریم خصوصی در کشورهای اروپایی با تأکید بر فردگرایی تعریف می‌شود، درحالی‌که در جوامع آسیایی یا آفریقایی ممکن است با نگاهی جمع‌گرایانه‌تر یا مبتنی بر سلسله‌مراتب اجتماعی تعبیر شود.

ث. مخاطرات اقتدارگرایی فناورانه و نظارت الگوریتمی
اصول اخلاقی نه‌تنها باید از پیامدهای ناخواسته فناوری، بلکه از سوءاستفاده عامدانه از هوش مصنوعی برای کنترل اجتماعی، نظارت گسترده و سرکوب آزادی‌ها نیز جلوگیری کنند. در غیاب کنترل‌های دموکراتیک، برخی دولت‌ها ممکن است از فناوری‌هایی چون تشخیص چهره، تحلیل احساسات یا رتبه‌دهی اجتماعی برای تقویت اقتدارگرایی استفاده کنند.
در این زمینه، اصول OECD باید با صراحت بیشتری به ممانعت از بهره‌گیری سیاسی از هوش مصنوعی برای سرکوب جامعه بپردازند و نقش نظارتی نهادهای بین‌المللی را تقویت کنند.

ج. ضرورت توسعه زیرساخت‌های اخلاقی دیجیتال
برای تحقق عملی اصول اخلاقی، فقط وجود قوانین کافی نیست؛ بلکه باید زیرساخت‌هایی برای ارزیابی الگوریتم‌ها، حسابرسی اخلاقی، ابزارهای آزمون بی‌طرفی، و سازوکارهای بازبینی مستقل طراحی و اجرا شوند. توسعه این زیرساخت‌ها، نیازمند سرمایه‌گذاری و همکاری بین‌المللی، به‌ویژه در حوزه ابزارهای متن‌باز و شفاف‌پذیر است.

مسیرهای پیش‌رو
در پاسخ به چالش‌های فوق، مسیرهای زیر برای تقویت آینده‌ای اخلاق‌محور در حوزه هوش مصنوعی پیشنهاد می‌شود:
– تعامل مستمر میان حوزه‌های فناوری، حقوق، فلسفه و علوم اجتماعی برای بازبینی مفاهیم اخلاقی در بسترهای واقعی؛
– ایجاد نهادهای بین‌المللی برای ممیزی و ارزیابی اخلاقی سیستم‌های هوش مصنوعی با اختیارات مشورتی و نظارتی؛
– حمایت از کشورهای با ظرفیت پایین در زمینه اجرای اخلاق هوش مصنوعی از طریق انتقال فناوری، آموزش و تأمین منابع؛
– بومی‌سازی اصول جهانی در قالب راهنماها و سیاست‌های ملی متناسب با زمینه فرهنگی-سیاسی هر کشور؛
– و در نهایت تقویت رویکرد مبتنی بر داده‌های مشارکتی و رضایت‌محور در توسعه الگوریتم‌ها به‌ویژه در حوزه‌هایی چون سلامت، آموزش و امنیت عمومی.

می‌توان گفت اصول هوش مصنوعی OECD نقشه راهی ارزشمند برای توسعه هوش مصنوعی اخلاق‌محور، فراگیر و سودمند برای همگان ارائه می‌کنند. پایبندی به این اصول به جوامع کمک می‌کند تا از ظرفیت‌های بالقوه هوش مصنوعی بهره بگیرند، بدون آن‌که حقوق بنیادین انسانی به خطر بیفتد. با ادامه تحولات در این حوزه، چارچوب ارائه‌شده از سوی OECD همچنان یکی از پایه‌های اصلی حکمرانی جهانی بر هوش مصنوعی باقی خواهد ماند.



About علیرضا صائبی

AI Consultant | Data Scientist | NLP Expert | SNA Expert مشاور هوشمندسازی کسب‌وکار، فعال در حوزه پردازش زبان طبیعی و علوم داده.

Check Also

ممنوعیت‌های جدید سامانه‌های هوش مصنوعی در اتحادیه اروپا

ممنوعیت‌های جدید سامانه‌های هوش مصنوعی در اتحادیه اروپا

ممنوعیت‌های قانون هوش مصنوعی اتحادیه اروپا از تاریخ ۲ فوریه اجرایی می‌شوند. این مقررات باید ...

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پنج × 5 =