Провідні медіа-організації випускають рекомендації щодо використання штучного інтелекту у відділах новин, водночас укладаючи ліцензійні угоди, що дозволяють компаніям, які займаються ШІ, використовувати їхній контент для навчання моделей.
Основні тези з безлічі стандартів і передових практик, опублікованих Associated Press, The Guardian, Wired, Insider та іншими:
- Спостереження з боку людини: більшість новинних компаній дозволяють деяке використання штучного інтелекту під наглядом людей. Однак будь-який результат роботи генеративного інструменту штучного інтелекту слід розглядати як неперевірений вихідний матеріал, кажуть в AP;
- Написання: багато хто з нових керівних принципів забороняє використовувати штучний інтелект для написання статей. “У нас ніколи не буде статті, написаної машиною”, – заявив Ніл Фогель, генеральний директор Dotdash Meredith;
- Зображення: особлива увага приділяється зображенням і відео, згенерованим штучним інтелектом. “Ми спеціально не використовуємо зображення, згенеровані штучним інтелектом, замість стокової фотографії”, – пише Wired, – “Але “[ми] або художники, яких ми наймаємо, можуть використовувати інструменти штучного інтелекту для генерування ідей”.
Незграбний експеримент CNET, проведений раніше цього року, спонукав дедалі більше медіакомпаній замислитися над тим, щоб їхні стандарти включали розкриття інформації про використання штучного інтелекту в редакційних продуктах.
До речі, Axios не використовує генеративний штучний інтелект для створення контенту, за винятком випадків, коли мета полягає в тому, щоб показати читачам, що може або не може зробити технологія, і в цьому випадку матеріал, створений за допомогою штучного інтелекту, чітко маркується.
На доповнення до теми наводимо приклад редакційної політики щодо використання ШІ в одному дуже відомому видавництві.
Associated Press розробило керівництво для журналістів щодо застосування ШІ
Associated Press спільно з іншими ЗМІ розробило керівництво для журналістів щодо використання можливостей штучного інтелекту. Ці принципи увійдуть до редакційного стандарту агентства. Головне:
- Співробітники AP можуть експериментувати з ChatGPT, але вони не використовують його для створення контенту, придатного для публікації;
- Будь-який результат роботи інструменту генеративного ШІ слід розглядати як неперевірений вихідний матеріал. Співробітники AP повинні керуватися своїм редакторським судженням і стандартами агентства під час аналізу будь-якої інформації;
- Згідно зі стандартами AP в агентстві не змінюють жодних елементів у фото, відео або аудіо. Тому AP не дозволяє використовувати генеративний ШІ для додавання / видалення будь-яких елементів;
- AP утримається від передачі будь-яких зображень, згенерованих ШІ, які, ймовірно або доведено, є “помилковим відображенням реальності”. Однак, якщо ілюстрація або твір мистецтва, створені штучним інтелектом, є предметом новинної статті, їх можна використовувати за умови, що вони чітко позначені як такі в описі;
- AP настійно закликає співробітників не використовувати конфіденційну інформацію в інструментах штучного інтелекту, а також просить проявляти належну обережність, щоб переконатися, що матеріали, які надходять в AP з інших джерел, також не містять контенту, створеного штучним інтелектом;
- Під час роботи зі ШІ журналістам слід проявляти ту саму обережність, що й зазвичай, зокрема намагатися визначити джерело оригінального контенту, виконувати пошук за зображеннями, щоб підтвердити походження зображення, і перевіряти повідомлення з аналогічним контентом із надійних джерел.