Редакторы Википедии ввели новые правила и ограничения для авторов, получающих оплату за перевод статей с помощью искусственного интеллекта. Это решение стало ответом на массовое обнаружение ошибок и так называемых «галлюцинаций» ИИ в переведенных материалах, которые ставят под угрозу надежность энциклопедии, пишет 404 Media.
Проблемы возникли после того, как организация Open Knowledge Association (OKA), нанимающая фрилансеров для расширения Википедии, обязала их использовать большие языковые модели для автоматизации перевода. После проверки редакторы обнаружили, что эти инструменты добавляют ссылки на источники, не содержащие упомянутой информации, а также вставляют абзацы, вообще не относящиеся к теме статьи.
Кроме того, в некоторых случаях из-за механического копирования текстов нарушается структура и верстка страниц. Расследование редакторов показало, что OKA полагается на низкооплачиваемый труд подрядчиков, часто не проверяющих результат работы ИИ. Требования издавать от 5 до 20 статей в неделю приводили к тому, что качество отходило на второй план.
Редакторы Википедии решили не запрещать использование ИИ полностью, однако установили жесткий механизм – если подрядчик OKA получает четыре обоснованных предупреждения за ненадежный контент в течение полугода, его профиль блокируется без дополнительных предупреждений. Статьи, созданные заблокированными авторами, подлежат вероятному удалению, если никто из опытных редакторов не возьмет ответственность за их исправление.
Основатель OKA Джонатан Циммерман признал наличие ошибок и заявил о внедрении "второго уровня проверки", где другая ИИ-модель должна искать несоответствия в тексте. Однако эксперты отмечают, что метод «проверки ИИ с помощью другого ИИ» ненадежен, поскольку он не заменяет критическое мышление человека.
- 2 февраля стало известно, что для ИИ-ботов создали отдельную соцсеть Moltbook.
- 22 января Южная Корея стала первой страной в мире, официально принявшей закон, регулирующий безопасное использование моделей ИИ. Страна разработала нормативную основу для борьбы с дезинформацией и другими рисками, связанными с новой технологией.