Компанії, що пропонують генеративний ШІ, здебільшого отримують один і той самий урок: людям подобається ним користуватися, але їм також подобається шукати в них помилки і доводити до крайнощів, пише Axios.
Великі мовні моделі, які використовують ChatGPT і аналогічні програми ШІ, були навчені на великих масивах інтернет-контенту. Щоб обмежити проблеми і блокувати небажаний контент, такі компанії, як Microsoft, Google і OpenAI, спробували навчити свої системи штучного інтелекту дотримуватися “правил”. Деякі користувачі поставили собі за мету з’ясувати, як спонукати чат-ботів навмисно порушувати рекомендації, розроблені компаніями.
Наприклад, Microsoft і Google довелося внести зміни після гучних інцидентів, під час яких чат-боти освідчувалися в коханні, поширювали дезінформацію і надали стереотипну та упереджену інформацію. Microsoft, наприклад, обмежила тривалість взаємодії в чаті Bing, щоб клієнти не порушували запобіжні заходи.
Багато компаній виявляють, що чат-боти найчастіше порушують правила, саме коли їх до цього підштовхують користувачі. І для цього теж є низка причин. Деякі хочуть розсунути межі просто для того, щоб подивитися, що вони можуть змусити робити системи. Інші бачать потенціал для отримання прибутку. Треті бачать можливість використовувати системи для того, щоб сіяти сумніви і генерувати дезінформацію.
Хоч би якими були причини, цілком очевидно, що користувачі зроблять усе можливе, щоб вийти за межі, а компаніям необхідно створювати системи, досить потужні, щоб обробляти все, що користувач вимагатиме від таких систем.
Минулого тижня Ілон Маск та інші опублікували відкритий лист, у якому закликали до шестимісячної паузи в розробці передових інструментів, заснованих на великих мовних моделях. Інші критики штучного інтелекту назвали цю ідею нездійсненною, закликавши уряд прискорити зусилля з регулювання технології. Президент Байден на зустрічі з технологічним консультативним комітетом Білого дому заявив, що технологічні компанії несуть відповідальність за забезпечення безпеки своєї продукції, перш ніж випускати її широкому загалу.