دروغ‌سنج های ارزان هوش مصنوعی، جایگزینی برای لایحه پرهزینه فضای مجازی

دروغ‌سنج های ارزان هوش مصنوعی، جایگزینی برای لایحه پرهزینه فضای مجازی

عباس عبدی در یادداشتی در روزنامه Etemad نوشت: هر فعال یا سیاستی در تلاش است تا مهمترین عوامل خود را در زمینه تعامل قرار دهد. کسی که از پول خود غنی است ، شخصی که قوی است ، نیروی او ، کسی که زیبا است ، چهره اش ، کسی که سخنران است ، خطبه او ، خردمندان و دانشمند ، دانش خود را برای پیروزی در رقابت یا مبارزات به ارمغان می آورد.

در همین حال ، دولت ها در تلاشند تا مؤلفه های قدرت خود را متنوع کنند تا اقتدار خود را اعمال کنند بلکه به جای سخت افزار به سمت استفاده از نرم افزار نیز حرکت می کنند. یکی از تفاوت های مهم بین سیستم های سیاسی ، اولویت بندی ترجیحات و اقتدار آنها است.

در جامعه ما ، مجازات ، مجازات ، نظارت بر فرد و جرم و جنایت اولین کلمه است. هر موضوعی که آنها دوست ندارند ابتدا آن را جرم و جنایت کند ، سپس می خواهد مسئله را با مجازات و نظارت خارجی برطرف کند و یکی از ایده های متداول برای دفاع از شدت مجازات و گسترش محدودیت های رفتارهای جنایی است. با این حال ، اگر مجازات یک مشکل برطرف شد یا رفتارهایی مطابق با میل قدرت ، تمام مشکلات جهان برطرف می شد.

لایحه مقابله با انتشار اخبار در فضای مجازی ، رویکردی فاجعه بار است که هیچ ارتباطی با هدر رفتن زمان و هزینه و افراد عصبانی ندارد. تاکنون مطالب زیادی در انتقاد از این لایحه نوشته شده است. اکنون یک خواننده محترم از یادداشت های من در زمینه هوش مصنوعی ، بر اساس نکات اصلی یادداشت های من ، متن زیر را در مورد چگونگی استفاده از این هوش برای مقابله با اخبار ارسال کرده است که یک رویکرد مثبت برای ذینفعان برای جلوگیری از دروغ و سوء رفتار با استفاده از این ابزار است.

هوش مصنوعی (AI) نقش مهمی در تأیید اطلاعات ، به ویژه در فضای مجازی ایفا می کند و می تواند به عنوان ابزاری دقیق و زیرساختی برای مقابله با دروغ و اطلاعات نادرست عمل کند. با توجه به ضرورت حقیقت و شفافیت ، پیشنهاداتی برای استفاده در نقش هوش مصنوعی ، کاربردهای آن و محدودیت های آن در ایران ارائه می شود. نقش و کاربردهای هوش مصنوعی در تأیید متنوع است.

– تشخیص خودکار اخبار جعلی ؛ که با تکیه بر مدلهای یادگیری الگوهای زبانی توسط هوش مصنوعی ، می تواند منابع نامعتبر یا تضادهای موجود در اخبار را شناسایی کند. سیستم عامل هایی مانند Full Fact در پروژه های انگلستان یا هوش مصنوعی مانند Grok (توسعه یافته توسط XAI) برای تجزیه و تحلیل محتوا و شناسایی ادعاهای مشکوک استفاده می شود. این روش در پردازش حجم داده های عظیم ، به ویژه در شبکه های اجتماعی از مزیت بالایی برخوردار است.

– تجزیه و تحلیل تصاویر و فیلم ها ؛ الگوریتم های بصری رایانه می توانند تصاویر یا فیلم های دستکاری شده را شناسایی کنند. ابزارهایی مانند Google Fact Check Explorer یا Invid تصاویر را با منابع معتبر مقایسه می کنند. به عنوان مثال ؛ آنها به راحتی فیلم های جعلی را در انتخابات یا بحران ها (مانند جنگ 6 روزه با اسرائیل) شناسایی می کنند. مزیت آن همچنین کاهش تأثیر محتوای بصری است که به سرعت در حال بازتولید است.

– حقیقت ادعاهای مطالبات با داده های باز ؛ هوش مصنوعی می تواند ادعاهای مطرح شده در رسانه ها را با پایگاه داده های عمومی (مانند آمار دولت ، گزارش های سازمان بین المللی) مقایسه و ارزیابی کند و تعصب انسانی را در فرآیند تأیید کاهش دهد.

– مدیریت شایعات در مدت زمان کوتاه ؛ هوش مصنوعی می تواند روند پخش شایعات در سیستم عامل هایی مانند X یا Telegram یا شبکه های ایرانی را مشاهده کند و با هشدار به موقع به کاربران یا سیستم عامل ها ، گسترش آنها را محدود می کند و به سرعت در برابر اطلاعات نادرست در بحران ها واکنش نشان می دهد.

– آموزش و توانمندسازی کاربران ؛ چت های مبتنی بر هوش مصنوعی می توانند به کاربران کمک کنند تا منابع خبری را تجزیه و تحلیل کنند یا صحت یک ادعا را بررسی کنند. مانند چت هایی که به WhatsApp یا Telegram پاسخ می دهند ، منابع معتبر را به کاربران ارائه می دهند و سواد رسانه ای را افزایش می دهند.

البته هوش مصنوعی محدودیت هایی در اخبار اخبار از جمله دارد.

– وابستگی به داده های با کیفیت بالا ؛ هوش مصنوعی برای عملکرد مؤثر نیاز به دسترسی به داده های معتبر و گسترده دارد. در کشورهایی مانند ایران که دسترسی به داده های شفاف محدود است ، صحت آن کاهش می یابد و اگر پایگاه داده ها ناقص یا مغرضانه باشند ، ممکن است نتایج گمراه کننده ای کسب کند.

– تعصب الگوریتمی ؛ الگوریتم های هوش مصنوعی به دلیل طراحی یا داده های آموزشی ممکن است دارای تعصب فرهنگی ، سیاسی یا زبانی باشند. این مشکل در جوامع قطبی مانند ایران می تواند اعتماد به نفس خود را کاهش دهد و بدون نظارت انسانی ، ممکن است ناخواسته سانسور شود یا برخی از گروه ها را بدنام کند. البته با گذشت زمان و با اصلاحات لازم ، عملکرد آنها می تواند بهبود یابد.

– عدم توانایی در درک زمینه محتوا ؛ هوش مصنوعی در تجزیه و تحلیل طنز ، طنز یا محتوای فرهنگی خاص ممکن است اشتباه شود و ادعای غیر اجرای را به عنوان دروغ شناسایی کند. این محدودیت می تواند منجر به برچسب زدن نامناسب محتوا شود.

– خطر سانسور و سوءاستفاده ؛ دولت ها یا شرکت های بزرگ ممکن است از هوش مصنوعی برای سرکوب محتوای مخالف به عنوان “تأیید” استفاده کنند ، که مطابق با هشدارهای موجود در مورد جرم و جنایت است و در غیاب نهادهای مستقل ، می تواند به ابزاری برای کنترل اطلاعات تبدیل شود.

– محدودیت های فنی در محتوای غیر تون ؛ هوش مصنوعی هنوز هم در شناسایی دیپیک های پیشرفته یا محتوای صوتی -تهویه مطبوع چالش برانگیز است و به فناوری های پیشرفته تری نیاز دارد. این مشکل در کشورهایی که زیرساخت های ضعیف تری دارند ، برجسته تر است.

اقدامات زیر با توجه به نیاز به غلبه بر رویکرد واقعیت و حداکثر رساندن رویکرد جنایی ، از AI در تأیید و برخورد با جرم و جنایت در ایران استفاده می شود:

– ایجاد سیستم عامل های تأیید مبتنی بر هوش مصنوعی با همکاری دانشگاه ها و سازمان های مستقل غیردولتی مستقل. این ابزارها برای جلوگیری از سوءاستفاده باید منبع باز باشند. به عنوان مثال ، ابزاری که محتوای پرشور بالا را در تلگرام یا X تجزیه و تحلیل می کند ، و از همه مهمتر در شبکه داخلی ITA و بله ، و با داده های عمومی (مانند آمار رسمی بانک مرکزی و بانک مرکزی) مقایسه می شود.

– برای کاهش تعصب و خطا ، هوش مصنوعی باید با تیم های تأیید انسانی (از جمله روزنامه نگاران و محققان مستقل) ترکیب شود. این تیم ها می توانند پیشینه فرهنگی و سیاسی را بهتر تحلیل کنند.

– توسعه چت های آموزشی در فارسی و طبق فرهنگ محلی ، کاربران کاربران را در تجزیه و تحلیل اخبار راهنمایی می کنند. این چت ها را می توان در پیام رسان های بالا مانند Telegram یا WhatsApp و ITA فعال کرد و به کاربر کمک کرد تا منبع اخبار را بررسی کند یا ادعا را با داده های رسمی مقایسه کند.

– برای تقویت دقت هوش مصنوعی ، دولت باید داده های عمومی (مانند آمار اقتصادی ، سیاسی ، قضایی یا بهداشتی) را به طور شفاف منتشر کند. این مطابق با تأکید بر شفافیت است.

– به جای تأکید بر استفاده از هوش مصنوعی برای شناسایی و مجازات ناشران اخبار جعلی یا جعلی ، باید از آن برای اطلاعات و آموزش استفاده شود. این رویکرد از خطر سانسور جلوگیری می کند. مانند برچسب زدن محتوای مشکوک بر روی سیستم عامل ها به جای سانسور یا جرم. به هر حال ، خبر دروغ با دروغ نیز آموزنده تر از حذف آن است.

– همکاری با شرکت هایی مانند XAI یا Google برای استفاده از ابزارهای تأیید پیشرفته ، منوط به استقلال و حریم خصوصی کاربران ایرانی ، به ویژه برای تجزیه و تحلیل محتوای فارسی.

پیشنهادات این خواننده محترم منطقی و واضح است ، اما فکر می کنم بعید است که توسط قانونگذاران ایرانی در نظر گرفته شود زیرا اگر چنین باشد ، آنها خواهند دید که کاربران رادیکال داخلی و زیردستان خارج از کشور بیشتر و بیشتر از سایرین منتشر می شوند. با گروه اول که قصد مقابله و دسترسی قضایی به گروه دوم را ندارند. نتیجه یک مشکل برای کاربران مستقل و مسئول است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *