۱۳ مرداد ۱۴۰۴
به روز شده در: ۱۳ مرداد ۱۴۰۴ - ۱۸:۱۱
فیلم بیشتر »»
کد خبر ۱۰۸۲۴۹۰
تاریخ انتشار: ۱۱:۳۸ - ۱۳-۰۵-۱۴۰۴
کد ۱۰۸۲۴۹۰
انتشار: ۱۱:۳۸ - ۱۳-۰۵-۱۴۰۴

عباس عبدی: هوش مصنوعی، جایگزینی ارزان برای لایحه پرهزینه فضای مجازی

عباس عبدی: هوش مصنوعی، جایگزینی ارزان برای لایحه پرهزینه فضای مجازی
«لایحه مقابله با انتشار اخبار خلاف در فضای مجازی جز اتلاف وقت و هزینه و عصبانی کردن مردم هیچ نتیجه دیگری نداشت.»

عباس عبدی 
روزنامه اعتماد 

هر کنشگر یا سیاست‌گذاری می‌کوشد که مهم‌ترین عامل‌های خود را وارد میدان تعاملات کند. کسی که پولدار است پولش را، کسی که قوی است، زورش را، کسی که زیباست، قیافه‌اش را، کسی که سخنور است، موعظه‌اش را، کسی که عاقل و دانشمند است، دانشش را به میدان بیاورد تا خود را پیروز رقابت‌ها یا ستیزه‌ها کند.

در این میان حکومت‌ها می‌کوشند که برای اعمال اقتدار خود، نه تنها مولفه‌های قدرت خود را تنوع بخشند بلکه به جای عوامل سخت‌افزاری به سوی استفاده از عوامل نرم‌افزاری حرکت کنند. یکی از تفاوت‌های مهم نظام‌های سیاسی اولویت دادن آن‌ها بر عوامل مهارکننده و اِعمال اقتدار است.

در جامعه ما تنبیه و مجازات و نظارت فردی و جرم‌محور حرف اول را می‌زنند. هر مساله‌ای را که نمی‌پسندند ابتدا جرم‌انگاری کرده، سپس می‌خواهند با مجازات و تشدید نظارت بیرونی آن مساله را حل کنند، و در این میان یکی از ایده‌های رایج دفاع از افزایش شدت مجازات‌ها و گسترش حدود رفتارهای مجرمانه است. در حالی که اگر با مجازات مساله‌ای حل یا رفتارها مطابق میل قدرت می‌شد تاکنون همه مسائل دنیا حل شده بود.

لایحه مقابله با انتشار اخبار خلاف در فضای مجازی مصداق فاجعه‌باری از این رویکرد است که جز اتلاف وقت و هزینه و عصبانی کردن مردم هیچ نتیجه دیگری نداشت. تاکنون مطالب زیادی در مذمت و نقد این لایحه نوشته شده است. اکنون یکی از خوانندگان محترم یادداشت‌های من که در حوزه هوش مصنوعی آشنایی دارد با پایه قرار دادن نکات اصلی یادداشت‌های بنده، متن زیر را در چگونگی استفاده از این هوش برای مقابله با اخبار خلاف فرستاده که رویکردی ایجابی برای دست‌اندرکاران است تا جلوی دروغ و خلاف‌گویی را با استفاده از این ابزار بگیرند.

هوش مصنوعی (AI) نقش مهمی در راستی‌آزمایی اطلاعات، به‌ویژه در فضای مجازی ایفا می‌کند و می‌تواند به عنوان ابزاری دقیق و زیرساختی برای مقابله با دروغ و اطلاعات نادرست عمل کند. با توجه به ضرورت التزام به حقیقت‌محوری و شفافیت، درباره نقش AI، کاربردها و محدودیت‌های آن در ایران، پیشنهادهایی برای استفاده ارایه می‌شود.

نقش و کاربردهای هوش مصنوعی در راستی‌آزمایی متنوع است. 

- تشخیص خودکار اخبار جعلی؛ که با تکیه بر مدل‌های یادگیری الگوهای زبانی از سوی هوش مصنوعی می‌تواند منابع غیرمعتبر، یا تناقضات در اخبار را شناسایی کنند. هم‌اکنون پلتفرم‌هایی مانند Full Fact در بریتانیا یا پروژه‌های AI مثل Grok (توسعه‌یافته توسط xAI) برای تحلیل محتوا و شناسایی ادعاهای مشکوک استفاده می‌شوند. این شیوه به دلیل سرعت بالا در پردازش حجم عظیم داده‌ها، به‌ویژه در شبکه‌های اجتماعی مزیت بالایی دارند. 

- تحلیل تصاویر و ویدئوها؛ الگوریتم‌های بینایی کامپیوتری می‌توانند تصاویر یا ویدئوهای دستکاری‌شده (Deepfake) را شناسایی کنند. ابزارهایی مثل Google Fact Check Explorer یا InVID تصاویر را با منابع معتبر مقایسه می‌کنند. برای مثال؛ شناسایی ویدئوهای جعلی در انتخابات یا بحران‌ها (مثل جنگ ۱۲ روزه با اسراییل) را به راحتی انجام می‌دهند. مزیت آن نیز کاهش تأثیر محتواهای بصری گمراه‌کننده‌ای است که به سرعت بازنشر می‌شود. 

- راستی‌آزمایی ادعاها با داده‌های باز؛ هوش مصنوعی می‌تواند ادعاهای مطرح‌شده در رسانه‌ها را با پایگاه‌های داده عمومی (مثل آمار دولتی، گزارش‌های سازمان‌های بین‌المللی) مقایسه کند و صحت آن‌ها را ارزیابی کند و موجب کاهش سوگیری انسانی در فرآیند راستی‌آزمایی شود. 

- مدیریت شایعات در زمان کوتاه؛ هوش مصنوعی می‌تواند روند انتشار شایعات را در پلتفرم‌هایی مثل X یا تلگرام یا شبکه‌های ایرانی رصد کرده و با هشدار به موقع به کاربران یا پلتفرم‌ها، گسترش آن‌ها را محدود کند و واکنش سریع به اطلاعات نادرست در بحران‌ها بروز دهد. 

- آموزش و توانمندسازی کاربران؛ چت‌بات‌های مبتنی بر AI می‌توانند به کاربران کمک کنند تا منابع خبری را تحلیل کنند یا صحت یک ادعا را بررسی کنند. مثل چت‌بات‌هایی که در واتس‌اپ یا تلگرام به کاربران پاسخ می‌دهند و منابع معتبر را پیشنهاد می‌کنند و سواد رسانه‌ای به‌صورت تعاملی و در دسترس را افزایش دهند. 

البته هوش مصنوعی در راستی‌آزمایی اخبار محدودیت‌هایی هم دارد از جمله؛ 

- وابستگی به داده‌های باکیفیت؛ هوش مصنوعی برای عملکرد موثر نیازمند دسترسی به داده‌های معتبر و گسترده است. در کشورهایی مثل ایران که دسترسی به داده‌های شفاف محدود است، دقت آن کاهش می‌یابد و اگر پایگاه‌های داده ناقص یا مغرضانه باشند، ممکن است نتایج گمراه‌کننده تولید کند. 

- سوگیری الگوریتمی؛ الگوریتم‌های هوش مصنوعی ممکن است به دلیل طراحی یا داده‌های آموزشی، سوگیری‌های فرهنگی، سیاسی یا زبانی داشته باشند. این مشکل در جوامع قطبی‌شده مثل ایران می‌تواند اعتماد به آن را کاهش دهد و بدون نظارت انسانی، ممکن است به‌طور ناخواسته برخی گروه‌ها را سانسور یا بدنام کند. البته با گذشت زمان و با انجام اصلاحات لازم، می‌توان کارایی آن‌ها را ارتقا داد. 

- ناتوانی در درک زمینه محتوا؛ هوش مصنوعی در تحلیل طنز، کنایه یا محتوای فرهنگی خاص ممکن است اشتباه کند و یک ادعای غیرجدی را به عنوان دروغ شناسایی کند. این محدودیت می‌تواند به برچسب‌گذاری نادرست محتوا منجر شود. 

- خطر سانسور و سوءاستفاده؛ دولت‌ها یا شرکت‌های بزرگ ممکن است از هوش مصنوعی برای سرکوب محتوای مخالف تحت عنوان «راستی‌آزمایی» استفاده کنند، که با هشدارهای موجود درباره جرم‌انگاری هم‌راستاست و در نبود نهادهای مستقل، می‌تواند به ابزاری برای کنترل اطلاعات تبدیل شود. 

- محدودیت‌های فنی در محتواهای غیرمتنی؛ هوش مصنوعی در شناسایی Deepfakeهای پیشرفته یا محتواهای دستکاری‌شده صوتی، هنوز چالش‌برانگیز است و نیاز به فناوری‌های پیشرفته‌تر دارد. این مشکل در کشورهایی با زیرساخت‌های ضعیف‌تر پررنگ‌تر است. 

برای استفاده از AI در راستی‌آزمایی و مقابله با خلاف‌گویی در ایران و با توجه به لزوم غلبه رویکرد حقیقت‌محوری و اجتناب حداکثری از رویکرد کیفری، اقدامات زیر پیشنهاد می‌شود: 

- ایجاد پلتفرم‌های راستی‌آزمایی مبتنی بر هوش مصنوعی با همکاری دانشگاه‌ها و سازمان‌های غیردولتی مستقل. این ابزارها باید متن‌باز (Open-Source) باشند تا از سوءاستفاده جلوگیری شود. برای نمونه ابزاری باشد که محتوای پربازدید در تلگرام یا X و از همه مهم‌تر در شبکه‌های داخلی ایتا و بله را تحلیل و با داده‌های عمومی (مثل آمار رسمی مرکز آمار و بانک مرکزی) مقایسه کند. 

- برای کاهش سوگیری و خطا، AI باید با تیم‌های راستی‌آزمایی انسانی (شامل روزنامه‌نگاران و محققان مستقل) ترکیب شود. این تیم‌ها می‌توانند زمینه فرهنگی و سیاسی را بهتر تحلیل کنند. 

- توسعه چت‌بات‌های آموزشی به زبان فارسی و با توجه به فرهنگ محلی، کاربران را در تحلیل اخبار راهنمایی می‌کنند. این چت‌بات‌ها می‌توانند در پیام‌رسان‌های با کاربر بالا مثل تلگرام یا واتس‌اپ و ایتا فعال شوند، و به کاربر کمک کنند منبع یک خبر را بررسی یا ادعایی را با داده‌های رسمی مقایسه کند. 

- برای تقویت دقت AI، دولت باید داده‌های عمومی (مثل آمار اقتصادی، سیاسی، قضایی یا سلامت) را به‌صورت شفاف منتشر کند. این کار هم‌راستا با تأکید بر شفافیت است. 

- به جای تأکید بر استفاده از AI برای شناسایی و مجازات منتشرکنندگان اخبار جعلی یا خلاف، باید از آن برای اطلاع‌رسانی و آموزش استفاده شود. این رویکرد از خطر سانسور جلوگیری می‌کند. مثل برچسب‌گذاری محتوای مشکوک در پلتفرم‌ها به‌جای سانسور یا جرم‌انگاری. اتفاقا وجود خبر دروغ با برچسب دروغ نیز آموزنده‌تر از حذف آن است. 

- همکاری با شرکت‌هایی مثل xAI یا گوگل برای استفاده از ابزارهای راستی‌آزمایی پیشرفته، با شرط حفظ استقلال و حریم خصوصی کاربران ایرانی، به ویژه برای تحلیل محتواهای فارسی. 

پیشنهادهای این خواننده محترم منطقی و روشن است ولی به نظرم بعید است از سوی قانونگذاران ایرانی مورد توجه قرارگیرد چون اگر چنین شود آنگاه خواهند دید که کاربران تندروی داخلی و براندازان خارج از کشور در شبکه‌های اجتماعی، بارها و بارها بیش از دیگران دروغ منتشر می‌کنند. با گروه اول که قصد مقابله نیست و به گروه دوم هم دسترسی قضایی ندارند. نتیجه ایجاد مشکل برای کاربران منطقی و مستقل و مسوول است.

پربیننده ترین پست همین یک ساعت اخیر
ارسال به دوستان