خانه / هوش مصنوعی / سطوح ریسک سامانه‌های هوش مصنوعی در قانون هوش مصنوعی اتحادیه اروپا

سطوح ریسک سامانه‌های هوش مصنوعی در قانون هوش مصنوعی اتحادیه اروپا

زمان مطالعه: 3 دقیقه

سطوح ریسک سامانه‌های هوش مصنوعی
در قانون هوش مصنوعی اتحادیه اروپا (EU AI Act)

قانون هوش مصنوعی اتحادیه اروپا، چارچوبی قانونی برای توسعه و استفاده از هوش مصنوعی در اتحادیه اروپا ارائه می‌دهد که به دلیل جامعیت، یکپارچگی و به‌روزآوری مستمر، علاوه بر ۲۷ کشور اتحادیه اروپا، مستقیماً الهام‌بخش بسیاری از کشورهای توسعه‌یافته از جمله ایالات متحده آمریکا، کانادا، بریتانیا (حتی پس از Brexit)، استرالیا، سنگاپور، ژاپن، امارات متحده عربی در تدوین قوانین هوش مصنوعی بوده است.
این قانون، سامانه‌های هوش مصنوعی را با تمرکز بر ریسک‌های اخلاقی آن‌ها از جمله تبعیض، نقض حریم خصوصی و سوگیری، به چهار دسته ریسک‌های غیرقابل‌قبول، بالا، محدود و پایین تقسیم می‌کند که تعاریف و نمونه‌هایی از هریک در ادامه بیان شده است.

۱. ریسک غیرقابل‌قبول:
این دسته شامل سامانه‌هایی می‌شود که خطرات جدی برای سلامتی، ایمنی یا حقوق اساسی انسان ایجاد می‌کنند. در حال حاضر استفاده از این سامانه‌ها در اتحادیه اروپا ممنوع است.
نمونه‌ها:
– سامانه‌های هوش مصنوعی که برای تشخیص و درمان خودکار بیماری‌ها بدون دخالت انسان استفاده شده و می‌توانند منجر به تشخیص نادرست و آسیب احتمالی به بیمار شوند.
– سامانه‌های هوش مصنوعی که برای تشخیص خودکار چهره افراد در اماکن عمومی و بدون رضایت آنها استفاده می‌شوند. [۱]
– سامانه‌های هوش مصنوعی که برای پیش‌بینی جرم و جنایت و بدون استناد به شواهد موردنیاز دستگاه قضایی در مورد یک فرد یا سازمان خاص استفاده می‌شوند و می‌توانند منجر به بازداشت و زندانی‌شدن افراد بی‌گناه شوند.
– سامانه‌های هوش مصنوعی که برای سلاح‌های خودکار و بدون دخالت انسان استفاده می‌شوند.

۲. ریسک بالا:
این دسته شامل سامانه‌هایی می‌شود که خطرات قابل‌توجهی برای سلامتی، ایمنی یا حقوق اساسی انسان ایجاد می‌کنند. استفاده از این سامانه‌ها فقط در صورت رعایت الزامات سخت‌گیرانه قانونی مجاز است.
نمونه‌ها:
– سامانه‌های هوش مصنوعی که برای استخدام افراد استفاده می‌شوند و می‌توانند منجر به تبعیض در استخدام شوند یا برای رتبه‌بندی اعتباری افراد استفاده می‌شوند و می‌توانند منجر به محرومیت مالی افراد از برخی امتیازات مالی شوند.
– سامانه‌های هوش مصنوعی که برای تشخیص خودکار بیماری‌ها بدون دخالت انسان (باتوجه‌به نوع بیماری و به‌عنوان ابزار کمکی پزشک) و با استفاده از داده‌های ناقص یا نامعتبر استفاده می‌شوند.
– سامانه‌های هوش مصنوعی که برای رتبه‌بندی اعتباری افراد و بدون درنظرگرفتن شرایط فردی آنها استفاده می‌شوند و می‌توانند منجر به محرومیت مالی افراد شوند.

۳. ریسک محدود:
این دسته شامل سامانه‌هایی می‌شود که خطرات جزئی برای سلامتی، ایمنی یا حقوق اساسی انسان ایجاد می‌کنند. استفاده از این سامانه‌ها با نظارت محدود مجاز است.
نمونه‌ها:
– سامانه‌های هوش مصنوعی که برای توصیه محصولات به مشتریان در وب‌سایت‌های خرید آنلاین یا برای چت‌بات‌ها در خدمات مشتری استفاده می‌شوند.
– سامانه‌های هوش مصنوعی که برای تشخیص چهره افراد در تصاویر (مثلاً تصاویر افراد در اینترنت) و با رضایت آنها استفاده می‌شوند.

۴. ریسک پایین:
این دسته شامل سامانه‌هایی می‌شود که خطرات قابل‌توجهی برای سلامتی، ایمنی یا حقوق اساسی انسان ایجاد نمی‌کنند. استفاده از این سامانه‌ها بدون هیچ محدودیتی مجاز است.
نمونه‌ها:
– سامانه‌های هوش مصنوعی که برای بازی‌های کامپیوتری یا فیلترکردن اسپم در ایمیل‌ها استفاده می‌شوند.
– سامانه‌های هوش مصنوعی که برای تشخیص چهره افراد در تصاویر و برای مقاصد امنیتی مانند ورود به سیستم استفاده می‌شوند.

علاوه بر سطوح ریسک گفته شده در بالا، قوانین هوش مصنوعی اتحادیه اروپا (EU AI Act) الزاماتی را برای توسعه‌دهندگان و کاربران سامانه‌های هوش مصنوعی در نظر گرفته است. این الزامات شامل مواردی مانند شفافیت، انصاف و پاسخگویی می‌شود. از نقاط برجسته در این قانون رویه بهبود مستمری است که برای آن در نظر گرفته شده و از زمان تدوین تا کنون به‌صورت دائم در حال بهبود و تکامل بوده است.
به نظر می‌رسد لازم است مهندسین، طراحان و بهره‌برداران سامانه‌های هوش مصنوعی، برای هریک از ماژول‌ها و کارکردهای سامانه هوشمند خود، این دسته‌بندی را در نظر داشته و ریسک‌های وارد بر هریک از سامانه‌های خود را برآورد نمایند تا به‌مرورزمان شاهد افزایش کاربردهای مؤثر و کاهش مخاطرات استفاده از سامانه‌های هوش مصنوعی باشیم.

______________________________________

[۱] معمولا دولت‌ها یا نهادهای نظارتی به دلایلی مانند حفاظت از امنیت ملی یا مواردی از این دست، اقدام به استفاده فراگیر از سامانه‌های تشخیص چهره می‌نمایند، اما بر اساس قوانین معمول سامانه‌های هوش مصنوعی، بایستی این سامانه‌ها تنها امکان شناسایی چهره مظنونین یا متهمینی را داشته باشند که با حکم دستگاه قضایی به عنوان مظنون یا متهم، بایستی مورد شناسایی یا تعقیب قرار گیرند و در صورت تطبیق چهره ایشان، مورد را به نهاد نظارتی گزارش نمایند؛ در حالی که دولت‌ها تمایل دارند سامانه‌های تشخیص چهره را به صورت فراگیر، برای عموم مردم و بدون رضایت فردی ایشان مورد استفاده قرار دهند که این خود از آسیب‌های اجتماعی بسیار مهم در کاربرد سامانه‌های هوش مصنوعی به شمار می‌رود.

لینک کوتاه b2n.ir/airisks برای ارجاع ساده این مطلب درنظرگرفته شده است.



درباره ی علیرضا صائبی

AI Consultant | Data Scientist | NLP Expert | SNA Expert مشاور هوشمندسازی کسب‌وکار، فعال در حوزه پردازش زبان طبیعی و علوم داده.

همچنین ببینید

هوش مصنوعی و ارزش‌های دموکراتیک

زمان مطالعه: 3 دقیقه مرکز هوش مصنوعی و خط‌مشی دیجیتال (CAIDP) هر سال گزارشی به نام گزارش [۱]AIDV منتشر ...