Home / مطالب خواندنی / چارچوب HLEG AI و ارزیابی هوش مصنوعی قابل اعتماد (ALTAI)
چارچوب HLEG AI و ارزیابی هوش مصنوعی قابل اعتماد (ALTAI)

چارچوب HLEG AI و ارزیابی هوش مصنوعی قابل اعتماد (ALTAI)

چارچوب HLEG AI و ارزیابی هوش مصنوعی قابل اعتماد (ALTAI[1])

هر روز دستاورد جدیدی در حوزه هوش مصنوعی (AI) ارائه می‌شود و تأثیرات گسترده‌ آن بر جوامع، صنایع و حتی زندگی روزمره انسان‌ها با سرعت زیادی در حال گسترش است.
با توجه به سرعت پیشرفت این فناوری، توجه به جنبه‌های اخلاقی و اجتماعی آن اهمیت بیشتری پیدا کرده است. در این راستا، گروهی از کارشناسان ارشد هوش مصنوعی (HLEG AI) در سال ۲۰۱۸ برای ارائه رهنمودهای اخلاقی در طراحی و کاربردهای AI در کمیسیون اروپا تشکیل شد. این گروه با هدف ایجاد چارچوبی برای توسعه و استفاده مسئولیانه از هوش مصنوعی، دستورالعمل‌هایی برای ایجاد هوش مصنوعی قابل اعتماد و اخلاقی تدوین کرد که در نهایت منجر به ایجاد «فهرست ارزیابی هوش مصنوعی قابل اعتماد» (ALTAI) شد.

ALTAI: ارزیابی هوش مصنوعی قابل اعتماد
فهرست ارزیابی هوش مصنوعی قابل اعتماد (ALTAI) به‌عنوان ابزاری برای ارزیابی سیستم‌های هوش مصنوعی طراحی شده است تا اطمینان حاصل کند که این سیستم‌ها با اصول اخلاقی سازگار هستند. ALTAI بر پایه چهار اصل اخلاقی بنا شده که در تمام مراحل توسعه و پیاده‌سازی سیستم‌های هوش مصنوعی باید رعایت شوند. این اصول عبارتند از:

  1. احترام به استقلال انسانی: سیستم‌های هوش مصنوعی باید به‌گونه‌ای طراحی شوند که تصمیم‌گیری‌های انسان‌ها را تضعیف نکنند و امکان نظارت و دخالت انسانی در فرایندها حفظ شود.
  2. پیشگیری از آسیب: باید اطمینان حاصل شود که استفاده از هوش مصنوعی هیچ‌گونه آسیبی به افراد یا جوامع وارد نمی‌کند. این اصل بر اهمیت ایمنی و جلوگیری از آسیب‌های غیرقابل‌پیش‌بینی تأکید دارد.
  3. عدالت: سیستم‌های هوش مصنوعی باید به‌طور عادلانه عمل کنند و هیچ‌گونه سوگیری و تبعیضی در فرآیندهای خود نداشته باشند. این شامل جلوگیری از تبعیض بر اساس نژاد، جنسیت، سن یا سایر ویژگی‌های فردی است.
  4. توضیح‌پذیری: تصمیماتی که توسط سیستم‌های هوش مصنوعی اتخاذ می‌شوند باید قابل توضیح و شفاف باشند. افراد باید قادر باشند بفهمند که یک تصمیم خاص ماشینی چرا و چگونه گرفته شده است.

هفت الزام کلیدی ALTAI
در ادامه این چهار اصل، ALTAI هفت الزام کلیدی را معرفی می‌کند که برای عملیاتی کردن این اصول ضروری هستند. این الزامات عبارتند از:

  1. عاملیت انسانی و نظارت: سیستم‌های هوش مصنوعی باید طوری طراحی شوند که امکان نظارت انسانی را فراهم کنند. نظارت می‌تواند به‌صورت «انسان در چرخه تصمیم‌گیری» (Human-in-the-loop)، «انسان ناظر بر چرخه تصمیم‌گیری» (Human-on-the-loop) یا «انسان مسئول چرخه تصمیم‌گیری» (Human-in-command) باشد.
  2. پایداری و ایمنی فنی: سیستم‌های هوش مصنوعی باید از نظر فنی مقاوم، پایدار و ایمن باشند و در برابر تهدیدات و مشکلات قابل‌پیش‌بینی محافظت شوند.
  3. حریم خصوصی و مدیریت داده‌ها: حفاظت از حریم خصوصی افراد و اطمینان از مدیریت صحیح داده‌ها باید از اولویت‌های کلیدی سیستم‌های هوش مصنوعی باشد.
  4. شفافیت: شفافیت باید در فرآیندهای تصمیم‌گیری سیستم‌های هوش مصنوعی حفظ شود و کاربران و ذینفعان باید بتوانند به راحتی اطلاعات مربوط به چگونگی عملکرد سیستم را درک کنند.
  5. تنوع، عدم تبعیض و عدالت: طراحی سیستم‌های هوش مصنوعی باید به صورتی انجام شود که از سوگیری و تبعیض جلوگیری کرده و به ترویج تنوع و عدالت کمک کند.
  6. سلامت اجتماعی و زیست‌محیطی: باید تأثیرات اجتماعی و زیست‌محیطی استفاده از هوش مصنوعی به‌دقت ارزیابی و کنترل شود.
  7. پاسخ‌گویی و مسئولیت‌پذیری: در نهایت، هر سیستم هوش مصنوعی باید مسئولیت‌پذیر باشد و هرگونه پیامد یا اثر منفی باید به‌طور شفاف پیگیری و اصلاح شود.

کاربردهای ALTAI
چارچوب ALTAI کاربردهای متنوعی دارد. در سطح دولتی، این چارچوب می‌تواند به تدوین خط‌مشی‌ها، راهبردها، سیاست‌ها و مقررات کمک کند تا استفاده از هوش مصنوعی به‌طور اخلاقی و مسئولانه صورت گیرد. در سطح صنعتی، شرکت‌ها می‌توانند از این چارچوب برای ارزیابی و طراحی سیستم‌های هوش مصنوعی استفاده کنند تا اطمینان حاصل کنند که محصولات و خدمات آن‌ها مطابق با استانداردهای اخلاقی و قانونی هستند.
به‌طور خاص، استفاده از ALTAI در سازمان‌های بزرگ می‌تواند به ارزیابی خطرات و فرصت‌های مرتبط با پیاده‌سازی هوش مصنوعی کمک کند و اطمینان حاصل کند که فرآیندهای تصمیم‌گیری هوش مصنوعی به نفع رفاه اجتماعی و توسعه پایدار هستند. این ارزیابی می‌تواند به سازمان‌ها کمک کند تا از مشکلاتی مانند تبعیض الگوریتمی، نقض حریم خصوصی و خطرات امنیتی جلوگیری کنند.
مثلا فرض کنید یک شرکت در حال توسعه یک سیستم هوش مصنوعی برای خودران کردن وسایل نقلیه است. با استفاده از چارچوب ALTAI، این شرکت می‌تواند از اصولی مانند «پیشگیری از آسیب» و «پایداری فنی» برای ارزیابی خطرات احتمالی سیستم خود استفاده کند. علاوه بر این، از اصل «شفافیت» برای توضیح چگونگی عملکرد سیستم به کاربران و ناظران استفاده می‌کند تا اطمینان حاصل شود که در صورت بروز خطا، مسئولیت‌ها به‌وضوح مشخص باشند.

چارچوب HLEG AI و فهرست ارزیابی هوش مصنوعی قابل اعتماد (ALTAI) ابزارهای مهمی برای تضمین استفاده اخلاقی و مسئولانه از هوش مصنوعی هستند. با رعایت این اصول و الزامات، می‌توان هوش مصنوعی را به‌طور مؤثر و عادلانه در جامعه پیاده‌سازی کرده و از پیامدهای منفی آن جلوگیری کرد.
استقرار این چارچوب در شرکت‌ها و سازمان‌ها روش‌های ساختیافته و مشخصی دارد که امیدوارم بتوانم در آینده بیشتر از آن بنویسم.

[۱] Assessment List for Trustworthy Artificial Intelligence



About علیرضا صائبی

AI Consultant | Data Scientist | NLP Expert | SNA Expert مشاور هوشمندسازی کسب‌وکار، فعال در حوزه پردازش زبان طبیعی و علوم داده.

Check Also

آلگوریتم‌گریزی . Algorithm Aversion

آلگوریتم‌گریزی . Algorithm Aversion

آلگوریتم‌گریزی (Algorithm Aversion) به گرایشی اشاره دارد که افراد به واسطه آن از الگوریتم‌ها دوری ...

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

19 − پانزده =