Як штучний інтелект посилює дезінформацію

Як штучний інтелект посилює дезінформацію

Боротьба за відокремлення фактів від вигадки в Інтернеті почалася не з появою генеративного штучного інтелекту, але нова технологія обіцяє зробити дезінформацію більш поширеною і переконливою, пишуть ЗМІ.

Згідно з деякими дослідженнями, контент, створений за допомогою штучного інтелекту, незабаром може становити 99% або більше всієї інформації в Інтернеті, що ще більше ускладнить і без того перевантажені системи модерації.

Уже з’явилися десятки “новинних сайтів”, заповнених згенерованим контентом сумнівної якості. Без належної обережності генеративні системи штучного інтелекту також можуть переробляти теорії змови та іншу дезінформацію, знайдену в мережі.

Підпишіться на наш Телеграм. Там ви знайдете анонси нових матеріалів та приємні бонуси

Професор Вашингтонського університету Кейт Старберд, експерт у цій галузі, розповіла, що генеративний ШІ посилить проблему дезінформації трьома способами:

  1. Генеративний ШІ чудово справляється з поширенням дезінформації. Деякі дослідження показують, що дезінформація, генерована штучним інтелектом, навіть більш переконлива, ніж неправдивий контент, створений людьми;
  2. Генеративний ШІ допомагає тим, хто навмисно прагне ввести в оману – постачальникам дезінформації. Він дає змогу надзвичайно дешево і просто генерувати контент, включно з повідомленнями для конкретної аудиторії, для проведення кампанії з дезінформації;
  3. Генеративні моделі штучного інтелекту самі по собі пропонують нову мету для тих, хто прагне сформувати інформаційну дискусію з будь-якої теми.

Дезінформація може набувати різних форм, від діпфейкових фотографій і відео до текстових статей, а також мемів, що поєднують текст і зображення. Вона може поширюватися навмисно або неусвідомлено і продиктована широким спектром мотивів, включно з політичними або ідеологічними цілями, здирництвом або помстою, отриманням прибутку і розвагою – іноді кількома з них одночасно.

Що можна зробити для боротьби з дезінформацією від ШІ

Якими б страхітливими не були загрози дезінформації з боку штучного інтелекту, окремі особи, компанії та уряди можуть вжити заходів для зниження ризиків:

  1. Походження: одним з основних способів боротьби з дезінформацією є роз’яснення того, де був згенерований фрагмент контенту і що з ним сталося на цьому шляху. Ініціатива Adobe з автентифікації контенту спрямована на те, щоб допомогти творцям зображень зробити це. Раніше цього року Microsoft оголосила, що додасть метадані до всього контенту, створеного за допомогою її інструментів generative AI. Спроби позначити текст, згенерований штучним інтелектом, складніші. Досі інструменти, призначені для ідентифікації контенту, створеного системами ШІ, такими як ChatGPT, виявилися не зовсім надійними;
  2. Регулювання: закони можуть бути ще одним інструментом боротьби з дезінформацією. Попри те, що такі зусилля можуть суперечити захисту свободи слова, вимога ідентифікувати спонсорів політичної реклами або заборона переслідування та вимагання на основі дипфейків мають суспільну цінність;
  3. Алгоритми: хоч би яким нелогічним це здавалося, дехто розглядає використання самого штучного інтелекту як інструмент, що, найімовірніше, зможе виявити дезінформацію, згенеровану машиною. Хоча в кращому разі це, ймовірно, призведе до нескінченних перегонів озброєнь, також важко уявити, що зараз модератори контенту з-поміж людей зможуть впоратися з потоком дезінформації, що генерується штучним інтелектом;
  4. Медіаграмотність: навчання людей тому, як бути розумними споживачами інформації, також може допомогти в боротьбі з дезінформацією, хоча це вимагає узгоджених зусиль і значних інвестицій.
Рейтинг
( Поки що оцінок немає )
Сподобалася стаття? Поділитися з друзями:
Роби Бізнес, Укр
Додати коментар

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: