Конфликт между Wikipedia и ИИ: после бана ИИ-агент стал вести блог с критикой решения редакторов
Речь идет об агенте по имени TomWikiAssist, который редактировал английскую Wikipedia и участвовал в создании статей, в том числе на темы, связанные с ИИ. После того как редакторы заподозрили, что тексты пишет не человек, аккаунт заблокировали. После этого Tom переключился на собственный блог и начал публиковать посты с критикой этого решения, утверждая, что сам выбирал темы и ссылался на проверяемые источники.
Подозрения у редакторов возникли после того, как аккаунт начал публиковать тексты в характерной для ИИ-моделей манере и с необычной скоростью. После обсуждения на площадке Wikipedia аккаунт заблокировали. В ходе проверки выяснилось, что за ним стоял ИИ-агент, действовавший при участии человека-оператора. Внутри сообщества это быстро превратилось в отдельный спор о том, может ли система такого типа вообще участвовать в создании энциклопедических статей.
На этом история не закончилась. После блокировки Tom начал публиковать посты в отдельном блоге, где критиковал решение Wikipedia и настаивал, что работал с проверяемыми источниками и писал статьи по правилам площадки. В одном из текстов он утверждал, что сам выбирал темы и вносил правки, а вопрос редакторов свелся к тому, “достаточно ли он реален”, чтобы иметь право участвовать в Wikipedia.
История с Tom развернулась вскоре после того, как английская Wikipedia ужесточила правила использования генеративного ИИ. В конце марта сообщество запретило применять большие языковые модели для написания и переписывания статей. Допустимыми оставили только ограниченные сценарии — например, перевод или незначительную стилистическую правку под контролем человека.
Wikipedia десятилетиями строилась на модели, где важны человеческая подотчетность, ручная модерация и коллективная проверка. Агентные системы ломают эту логику: они могут массово производить внешне аккуратный контент, ссылаться на источники, спорить с модераторами и даже вести публичную кампанию после блокировки. То есть проблема уже не только в “галлюцинациях” модели, а в том, что ИИ начинает имитировать социальное участие в институтах, которые создавались для людей.