بازار تبریز آنلاین - از ماه نوامبر سال ۲۰۲۲ که ابزار هوش مصنوعی چتجیپیتی (ChatGPT) در دسترس عموم مردم قرار گرفته، هوش مصنوعی مولد در کانون توجه بوده است. این فنآوری که با سرعت در حال تکامل بوده، مقولاتی مثل آموزش، مسافرت و حکومتها را تحت تاثیر قرار داده و رسانهها نیز در امان نخواهند بود.
هوش مصنوعی مولد، شیوههای تولید و مصرف محتوا را تغییر میدهد و این امر به ایجاد چالشهای جدید در مبارزه با اطلاعات نادرست میانجامد. در یکی از کلاسهای اخیر بخش خلع سلاح اطلاعات نادرست مربوط به مرکز بینالمللی خبرنگاران که درباره گزارشهای تحقیقی برگزار شده بود، اِیمی راینهارت (Aimee Rinehart)، مدیر ارشد تولید در خبرگزاری اسوشیتدپرس (AP)، بینش خود را درباره هوش مصنوعی مولد و اثرات آن بر انتشار اطلاعات نادرست با شرکت کنندگان در میان گذاشت که مهمترین آنها را در ادامه این مطلب میخوانید.
تصاویر
برای آن که خبرنگاران تشخیص بدهند که یک تصویر با هوش مصنوعی ساخته شده است یا نه، راینهارت سه راه را پیشنهاد میکند:
۱- به دنبال یافتن جزئیات عجیب و غریب در افراد باشید، مثل شکل غیرطبیعی دست و پا و یا زیورآلاتی که در جای نامناسبی قرار گرفتهاند.
۲- انحراف و یا تار بودن پسزمینه تصاویر را بررسی کنید و ببینید که علت وجود یا عدم وجود سایه در عکس چیست.
۳- برای تأیید جزئیات یک تصویر، به دنبال تصویرهای دیگر و یا زوایای دیگر از همان صحنه باشید.
راینهارت همچنین برای راستیآزمایی، روشی معروف به SIFT را معرفی میکند. بهکارگیری این روش مستلزم رعايت چندین نکته است: دست نگه دارید، منبع را بررسی کنید، پوشش بهتری بیابید و ادعاها، نقل قولها و محتوای رسانهای را تا یافتن زمینه اصلی آن، ردیابی کنید.
این روش را مایک کالفیلد (Mike Caulfield)، محقق مرکز جامعه آگاه در دانشگاه واشنگتن، بنیان گذاشته است.
راینهارت دراین باره میگوید: «ما وارد عصر فنآوریهای شدهایم، اما خوب است که به بنیادهای کار خبرنگاری بازگردیم تا منبع محتوایی را که بهکار میبریم، بیابیم.»
قبل از به اشتراک گذاشتن یک تصویر مشکوک یا بحثبرانگیز با دیگران، درباره معتبر بودن آن، به دقت فکر کنید. پیدا کردن جزئیات ناآشنا و یا زوایا و تصویرهایی که عکس شما را تأیید کنند، به شما کمک میکند که منبع اصلی تصویر روشن شود و از انتشار اطلاعات نادرست، جلوگیری شود.
آسیبها و اثرات فراگیر هوش مصنوعی مولد
در سال جاری/روان (۲۰۲۳) پلتفرمهای عمده اجتماعی، تلاشهای خود را برای مبارزه با انتشار اطلاعات نادرست کاهش دادهاند. به همین علت شاید در آینده، شاهد نظارت کمتری بر تدابیر امنیتی در فضای مجازی باشیم. این، ممکن است آسیبپذیری عمومی را در برابر انتشار اطلاعات غلط افزایش دهد.
در ایالات متحده آمریکا رهبران سیاسی جمهوریخواه به دنبال کاهش بودجه فدرال برای تحقیقات پیرامون تکثیر اطلاعات نادرست در فضای مجازی هستند. کاهش بودجه و در نتیجه کاهش تحقیقات، احتمالاً بر درک ما از چگونگی تأثیرگذاری انتشار اطلاعات نادرست و اطلاعات جعلی بر عموم مردم، اثر خواهد گذاشت.
به گفته راینهارت: «این موضوع باعث ایجاد انجماد در بودجهای شده که صرف تحقیقات درباره اطلاعات نادرست و جعلی میشد. احتمالاً درباره انتشار اطلاعات نادرست پیرامون انتخابات سال ۲۰۲۴ کمتر خواهیم دانست و اگر این اطلاعات نادرست آسیبی به روند یا نتیجه انتخابات وارد کند، واقعاً نخواهیم دانست که این آسیب، چگونه و به کجا وارد شده است.»
با این وصف، نمیتوان قطعاً نتیجه گرفت که هوش مصنوعی مولد به تشدید مصرف اطلاعات نادرست بین عموم مردم خواهد انجامید. محققان در یک بررسی که اخیراً انجام شده دریافتهاند که افزایش تولید محتوای غلط توسط هوش مصنوعی لزوماً به معنی افزایش مصرف آن توسط مردم نیست.
راینهارت میگوید: «اگر مردم بخواهند محتوای مشکلدار را ببینند، آن را خواهند یافت. این گونه نیست که همه اطلاعات، نادرست باشد و هیچ چیز دیگری، یعنی هیچ جایگزینی، برای دیدن و همرسانی این محتوای مشکلدار وجود نداشته باشد.»
پیشرفتهای فنآوری
ارتقاء فنآوری هوش مصنوعی، کیفیت محتوای نادرست را به طور مثال با ارائه جزئیات واقعیتر، بهبود بخشیده است.
راینهارت میگوید: «ابزارهایی مثل DALL-E3 و ChatGPT4 و پیشرفتهای دیگر بهتر حدس خواهند زد که منظور شما در درخواستی که برای تولید محتوا دادهاید، چه بوده است.»
محققان و سازندگان یا برنامهریزان نرمافزار به گونهای یکسان نشان دادهاند که ارتقاء و بهبود هوش مصنوعی مولد، هم مقرون به صرفه و هم امکانپذیر است. یک بررسی وبسایت WIRED نشان میدهد که سازندگان نرمافزار چگونه توانستهاند آنها را دستکاری کنند تا تنها با هزینه کردن۴۰۰ دلار آمریکا، محتوای ضد روسیه تولید کند. دانشمندی از زلاند نو تنها با ۳۰۰ دلار آمریکا توانست یک چت بات مایل به جناح راست بسازد.
«میتوان انتظار داشت که ببینید مردم دیگر از این فنآوری به سود خود استفاده میکنند؛ چه در حال پیکارهای انتخاباتی باشند و چه محلهای کسب و کار را اداره کنند. آنها از تغییر دادن روایت، سود میبرند.»
تعدادی از نهادها یا شرکتها، در تلاشند تا راههای تشخیص تصویرهای تولید شده با هوش مصنوعی را بهبود بخشند و تاکنون میزان موفقیت آنها گاه بیشتر و گاه کمتر بوده است. برای مثال، واترمارکها را به راحتی میتوان دور زد و یا دستکاری کرد. در این میان شرکت OpenAI در حال توسعه یک ابزار یادگیری ماشینی است که بتواند تصویرهای تولید شده با ابزار هوش مصنوعی DALL-E را شناسایی کند و انتظار میرود که میزان دقت آن، ۹۹ درصد باشد.
اثرات هوش مصنوعی مولد بر انتخاباتها
در سال ۲۰۲۴ که تعداد زیادی از کشورهای جهان، شاهد برگزاری انتخابات خواهند بود، هوش مصنوعی مولد بر روند این انتخابات اثرات زیادی خواهد داشت. اکنون در ایالات متحده از با تولید تبلیغات، صوت، ویدیو و عکس، از هوش مصنوعی مولد در حمله رقبای انتخاباتی به یکدیگر استفاده شده است. تیم انتخاباتی ران دِسَنتز (Ron DeSantis)، نامزد جمهوریخواه انتخابات ریاستجمهوری آمریکا، تصویرهای جعلی تولید کردهاند که در آنها دونالد ترامپ، رئیسجمهور پیشین ایالات متحده و آنتونی فاوچی، مشاور ارشد بهداشت و سلامت کاخ سفید در دوران ترامپ، یکدیگر را در آغوش گرفتهاند. در تبلیغی دیگر، یک گروه هوادار دِسنتز از هوش مصنوعی برای تولید صدای ترامپ در یک ویدیو استفاده کرده که در آن به کیم رنولدز (Kim Reynolds) فرماندار جمهوریخواه ایالت آیوا، حمله لفظی شده است.
در کشورهایی که مردم به زبانهای مختلف حرف میزنند، هوش مصنوعی مولد میتواند کمک کند که پیامهای نامزدهای انتخاباتی به مخاطبان متنوعی برسد که شاید پیش از ایجاد هوش مصنوعی، رسیدن پیام به آنها ممکن نبود. برای مثال در هند، با کمک هوش مصنوعی مولد، ترانه طنز مشهوری درباره نارندرا مودی، نخستوزیر این کشور، به چندین زبان ساخته شده است.
راینهارت میگوید: «مردم ChatGPT را دنبال میکنند. فکر میکنم که اگر خبرنگار هستید و راستیآزمایی میکنید، تنوع افکار و نظرات را در این زمینه در جوامع گوناگون، بهخصوص در ایالات متحده، دیدهاید. احتمالاً با این موضوع هم آشنا هستید که در دو سه سال آینده، وظیفه شما دشوارتر خواهد شد. اکنون بهترین زمان برای همرسانی منابع، روشها و فنون تشخیص اطلاعات نادرست تولیدشده با هوش مصنوعی است.»