Home / مطالب خواندنی / بیچاره هوش مصنوعی . اخبار جعلی
بیچاره هوش مصنوعی . اخبار جعلی

بیچاره هوش مصنوعی . اخبار جعلی

همانند دنیای فیزیکی، در دنیای اینترنت و رسانه‌های اجتماعی نیز اخبار جعلی یکی از مسائل جدی است که نیاز به دقت و توجه ویژه دارد. همان‌طور که در دنیای فیزیکی هر حرفی را از هر کسی که در هر ارتفاعی نشسته یا ایستاده و سخنرانی می‌کند، نمی‌پذیریم و از او سند و مدرک و منبع موثق می‌خواهیم و با عقل خود صحت‌وسقم آن را می‌پذیریم و با رویکرد تفکر انتقادی به گفته وی می‌نگریم، شایسته است در فضای اینترنت و رسانه‌های اجتماعی نیز دقیقاً به همین شیوه با اطلاعات و اخبار و روایت‌ها و تصاویر و ویدئوها برخورد کنیم.

گفته می‌شود یکی از آسیب‌های هوش مصنوعی، استفاده از آن در تولید اخبار جعلی است. به‌عنوان‌مثال، می‌توان از هوش مصنوعی برای ایجاد تصاویر، ویدئوها و متن‌های جعلی به صورتی استفاده کرد که تشخیص اصلی یا جعلی بودن آن برای انسان ناممکن یا بسیار دشوار است. اما من تصور می‌کنم کاربرد وسیع‌تر هوش مصنوعی در حال حاضر تشخیص اخبار جعلی و اکاذیبی است که توسط هوش انسانی ساخته و منتشر می‌شود.

بر اساس تحقیقات انجام شده، توسط مرکز تحقیقات Pew در سال ۲۰۲۳، حدود ۹۰ درصد از اخبار جعلی توسط انسان تولید می‌شود و بخش کوچکی از این اخبار جعلی حاصل دخالت هوش مصنوعی است. در واقع هنوز و در حال حاضر این هوش انسانی است که تلاش می‌کند اخبار، تصاویر و ویدئوهای جعلی را بسازد که بخشی از مردم جوامع در دنیا نسبت به کلمات کلیدی به‌کاررفته در آن‌ها سوگیری‌هایی دارند و با دیدن آن اخبار می‌توان هیجانات ایشان را در مقیاس وسیع برانگیخت.

از این منظر وجود قوانین و مقررات کافی برای پیشگیری از این نوع استفاده از هوش انسانی (برای ۹۰% مواقع) و هوش مصنوعی (برای ۱۰% مواقع) ضروری است و صدالبته لازم است که این مقررات را بتوان برای رسیدگی به جرائم هر انسان یا ماشینی که با انتشار اخبار جعلی یا اطلاعات غلط (از هر نوع) و برانگیختن هیجانات بخشی از جامع باعث تشویش اذهان عمومی می‌شود، فارغ از جایگاه و روابط آن انسان یا ماشین، به کار گرفت.

البته با توجه به این که در حال حاضر مردم در جوامع مختلف همت چندانی برای ارزیابی صحت اطلاعات دریافتی خود ندارند و نسبت به این موضوع و تأثیر اجتماعی آن بسیار بی‌تفاوت هستند، شاهدیم که کاربران، به‌خصوص در شبکه‌ها و رسانه‌های اجتماعی حتی بدون اینکه متن‌ها را تا انتها بخوانند یا ویدئوها را تا انتها ببینند، آن‌ها را برای دیگران به اشتراک می‌گذارند و باعث نشر اطلاعات غلط (نشر اکاذیب) می‌َشوند که خود مسئله‌ای است که هوش مصنوعی می‌تواند به‌سادگی آن را مدیریت کند. به این معنی که اعتبار منبع را سنجیده و در اختیار کاربران پلتفرم‌های رسانه‌های اجتماعی قرار دهد. البته خبر خوب اینکه در حال حاضر بعضی از این رسانه‌ها در بخش ماشینی ماجرا در موارد مربوط به کپی‌رایت یا صحنه‌های خشن و زننده تا حدی این کار را انجام می‌دهند، اما در بخش انسانی، به‌ندرت شاهد این نوع رسیدگی هستیم، درحالی‌که به نظر می‌رسد با رشد زمینه‌های فرهنگی در هر جامعه به‌سادگی می‌توان بخش بزرگ (۹۰ درصدی) این آسیب اجتماعی را از یک تهدید اجتماعی به فرصتی برای نشر اطلاعات معتبر تبدیل نمود.

منظور من از اطلاعات معتبر، الزاماً انطباق اطلاعات یا اخبار منتشره بر اصول اخلاقی یا تفکری خاص نیست، بلکه صرفاً اعتبار مطلب مدنظر است، چرا که درهرحال اقشار مختلف جامعه سلایق متفاوت داشته و بخش زیادی از اطلاعات و اخبار منتشره در رسانه‌های اجتماعی اصولاً حاوی پیام خاصی نیستند (و احتمالاً ضرورتی هم ندارد که باشند).

البته مقابله با این رویکرد غلط نیاز به زمینه‌سازی فرهنگی از دوران کودکی و در سیستم آموزشی هر کشور دارد، به این معنی که کودکان و نوجوانان هر جامعه‌ای بیاموزند که هر نوع اطلاعاتی را نپذیرند و در مورد صحت‌وسقم آن تحقیق نموده و یا به عقل خود مراجعه نمایند و نظرات خود را با متخصصینی آزاداندیش در میان بگذارند که یافتن دو مورد اخیر خود جزء چالش‌های این رویکرد به‌حساب می‌آید. درهرحال حتی اگر سیستم آموزشی مثل سیستم‌های آموزشی فعلی در کشور ما و سایر کشورهای دنیا، کم‌کاری کردند و دانش‌آموزان را منتقد و آزاداندیش پرورش ندادند و حتی برعکس، انواع سوگیری‌ها را به ایشان القا نمودند، باز هم می‌توان امیدوار بود که با استفاده از بعضی راهکارهای ساده نظیر موارد زیر، اثرات مخرب این اخبار و اطلاعات جعلی و ناصحیح را در محیط اینترنتی یا در فضای فیزیکی جامعه کاهش دهیم:

  • خواندن دقیق متن و دریافتن غرض اصلی و تأثیرات حاصل از خواندن آن
  • درنظرگرفتن منابع (به‌خصوص نویسنده) و اعتبار آن‌ها از نظر میزان سوگیری و غرض‌ورزی
  • کنترل اطلاعات با سایر منابع موجود و نقدهای وارد بر آن‌ها
  • کنترل اطلاعاتی درباره اطلاعات دریافتی، مثل تاریخ، مکان، منابع نشردهنده و ازاین‌دست
  • کنترل تعصبات شخصی خود و توجه به آزاداندیشی و دوری از اتاق‌های پژواک
  • پرسش از متخصصانی (یا مطالعه کتاب‌هایی) با دیدگاه‌های متفاوت و نه لزوماً در تأیید نظرات شخصی خود

بدیهی است که انجام این مراحل برای همه اطلاعات و اخبار، وقت زیادی می‌طلبد و لذا هر چه آن عقیده یا اطلاعات برای هر یک از ما زیرساختی و پایه‌ای‌تر باشد، تحقیق و نقد بیشتری می‌طلبد اما به خصوص پس از ظهور کاربردهای فراگیر مدل‌های زبانی بزرگ، شاهد هستیم که هوش مصنوعی می‌تواند هر شش گام فوق را با دقت و سرعت کافی انجام داده و ما را در تشخیص اخبار جعلی به خوبی یاری کند.



About علیرضا صائبی

AI Consultant | Data Scientist | NLP Expert | SNA Expert مشاور هوشمندسازی کسب‌وکار، فعال در حوزه پردازش زبان طبیعی و علوم داده.

Check Also

بیانیه مأموریت سرویس مسیریابی گوگل‌مپ

بیانیه مأموریت سرویس مسیریابی گوگل‌مپ

گوگل‌مپ به‌عنوان یکی از سرویس‌های شناخته‌شده نقشه و مسیریابی دیجیتال، از زمان آغاز به کار ...