همانند دنیای فیزیکی، در دنیای اینترنت و رسانههای اجتماعی نیز اخبار جعلی یکی از مسائل جدی است که نیاز به دقت و توجه ویژه دارد. همانطور که در دنیای فیزیکی هر حرفی را از هر کسی که در هر ارتفاعی نشسته یا ایستاده و سخنرانی میکند، نمیپذیریم و از او سند و مدرک و منبع موثق میخواهیم و با عقل خود صحتوسقم آن را میپذیریم و با رویکرد تفکر انتقادی به گفته وی مینگریم، شایسته است در فضای اینترنت و رسانههای اجتماعی نیز دقیقاً به همین شیوه با اطلاعات و اخبار و روایتها و تصاویر و ویدئوها برخورد کنیم.
گفته میشود یکی از آسیبهای هوش مصنوعی، استفاده از آن در تولید اخبار جعلی است. بهعنوانمثال، میتوان از هوش مصنوعی برای ایجاد تصاویر، ویدئوها و متنهای جعلی به صورتی استفاده کرد که تشخیص اصلی یا جعلی بودن آن برای انسان ناممکن یا بسیار دشوار است. اما من تصور میکنم کاربرد وسیعتر هوش مصنوعی در حال حاضر تشخیص اخبار جعلی و اکاذیبی است که توسط هوش انسانی ساخته و منتشر میشود.
بر اساس تحقیقات انجام شده، توسط مرکز تحقیقات Pew در سال ۲۰۲۳، حدود ۹۰ درصد از اخبار جعلی توسط انسان تولید میشود و بخش کوچکی از این اخبار جعلی حاصل دخالت هوش مصنوعی است. در واقع هنوز و در حال حاضر این هوش انسانی است که تلاش میکند اخبار، تصاویر و ویدئوهای جعلی را بسازد که بخشی از مردم جوامع در دنیا نسبت به کلمات کلیدی بهکاررفته در آنها سوگیریهایی دارند و با دیدن آن اخبار میتوان هیجانات ایشان را در مقیاس وسیع برانگیخت.
از این منظر وجود قوانین و مقررات کافی برای پیشگیری از این نوع استفاده از هوش انسانی (برای ۹۰% مواقع) و هوش مصنوعی (برای ۱۰% مواقع) ضروری است و صدالبته لازم است که این مقررات را بتوان برای رسیدگی به جرائم هر انسان یا ماشینی که با انتشار اخبار جعلی یا اطلاعات غلط (از هر نوع) و برانگیختن هیجانات بخشی از جامع باعث تشویش اذهان عمومی میشود، فارغ از جایگاه و روابط آن انسان یا ماشین، به کار گرفت.
البته با توجه به این که در حال حاضر مردم در جوامع مختلف همت چندانی برای ارزیابی صحت اطلاعات دریافتی خود ندارند و نسبت به این موضوع و تأثیر اجتماعی آن بسیار بیتفاوت هستند، شاهدیم که کاربران، بهخصوص در شبکهها و رسانههای اجتماعی حتی بدون اینکه متنها را تا انتها بخوانند یا ویدئوها را تا انتها ببینند، آنها را برای دیگران به اشتراک میگذارند و باعث نشر اطلاعات غلط (نشر اکاذیب) میَشوند که خود مسئلهای است که هوش مصنوعی میتواند بهسادگی آن را مدیریت کند. به این معنی که اعتبار منبع را سنجیده و در اختیار کاربران پلتفرمهای رسانههای اجتماعی قرار دهد. البته خبر خوب اینکه در حال حاضر بعضی از این رسانهها در بخش ماشینی ماجرا در موارد مربوط به کپیرایت یا صحنههای خشن و زننده تا حدی این کار را انجام میدهند، اما در بخش انسانی، بهندرت شاهد این نوع رسیدگی هستیم، درحالیکه به نظر میرسد با رشد زمینههای فرهنگی در هر جامعه بهسادگی میتوان بخش بزرگ (۹۰ درصدی) این آسیب اجتماعی را از یک تهدید اجتماعی به فرصتی برای نشر اطلاعات معتبر تبدیل نمود.
منظور من از اطلاعات معتبر، الزاماً انطباق اطلاعات یا اخبار منتشره بر اصول اخلاقی یا تفکری خاص نیست، بلکه صرفاً اعتبار مطلب مدنظر است، چرا که درهرحال اقشار مختلف جامعه سلایق متفاوت داشته و بخش زیادی از اطلاعات و اخبار منتشره در رسانههای اجتماعی اصولاً حاوی پیام خاصی نیستند (و احتمالاً ضرورتی هم ندارد که باشند).
البته مقابله با این رویکرد غلط نیاز به زمینهسازی فرهنگی از دوران کودکی و در سیستم آموزشی هر کشور دارد، به این معنی که کودکان و نوجوانان هر جامعهای بیاموزند که هر نوع اطلاعاتی را نپذیرند و در مورد صحتوسقم آن تحقیق نموده و یا به عقل خود مراجعه نمایند و نظرات خود را با متخصصینی آزاداندیش در میان بگذارند که یافتن دو مورد اخیر خود جزء چالشهای این رویکرد بهحساب میآید. درهرحال حتی اگر سیستم آموزشی مثل سیستمهای آموزشی فعلی در کشور ما و سایر کشورهای دنیا، کمکاری کردند و دانشآموزان را منتقد و آزاداندیش پرورش ندادند و حتی برعکس، انواع سوگیریها را به ایشان القا نمودند، باز هم میتوان امیدوار بود که با استفاده از بعضی راهکارهای ساده نظیر موارد زیر، اثرات مخرب این اخبار و اطلاعات جعلی و ناصحیح را در محیط اینترنتی یا در فضای فیزیکی جامعه کاهش دهیم:
- خواندن دقیق متن و دریافتن غرض اصلی و تأثیرات حاصل از خواندن آن
- درنظرگرفتن منابع (بهخصوص نویسنده) و اعتبار آنها از نظر میزان سوگیری و غرضورزی
- کنترل اطلاعات با سایر منابع موجود و نقدهای وارد بر آنها
- کنترل اطلاعاتی درباره اطلاعات دریافتی، مثل تاریخ، مکان، منابع نشردهنده و ازایندست
- کنترل تعصبات شخصی خود و توجه به آزاداندیشی و دوری از اتاقهای پژواک
- پرسش از متخصصانی (یا مطالعه کتابهایی) با دیدگاههای متفاوت و نه لزوماً در تأیید نظرات شخصی خود
بدیهی است که انجام این مراحل برای همه اطلاعات و اخبار، وقت زیادی میطلبد و لذا هر چه آن عقیده یا اطلاعات برای هر یک از ما زیرساختی و پایهایتر باشد، تحقیق و نقد بیشتری میطلبد اما به خصوص پس از ظهور کاربردهای فراگیر مدلهای زبانی بزرگ، شاهد هستیم که هوش مصنوعی میتواند هر شش گام فوق را با دقت و سرعت کافی انجام داده و ما را در تشخیص اخبار جعلی به خوبی یاری کند.