ChatGPT подсунул учёным 100+ несуществующих статей — и они это опубликовали на главной AI-конференции года

Когда AI-исследователи не могут отличить реальные источники от галлюцинаций ChatGPT — проблема стала системной

ChatGPT подсунул учёным 100+ несуществующих статей — и они это опубликовали на главной AI-конференции года

Представьте: вы подаёте статью на престижнейшую AI-конференцию в мире. Ваша работа проходит через трёх рецензентов, обходит 15 000 конкурентов и попадает в финальный сборник. Поздравляем! Вот только половина ваших ссылок — выдумка нейросети.

Добро пожаловать в 2026-й, где это уже не гипотетический сценарий, а реальность.

Как это вскрылось

В январе стартап GPTZero (да, те самые ребята, которые делают детектор AI-текстов) решил проверить все 4 841 статью с конференции NeurIPS 2025. NeurIPS — это как “Оскар” для AI-исследователей. Попасть туда означает, что ты в топе индустрии. Уровень принятия — около 25%, то есть из каждых четырёх работ берут одну.

И что обнаружили? 100+ галлюцинированных цитат в 51 принятой статье.

Не опечатки. Не ошибки форматирования. А полностью выдуманные нейросетью ссылки: несуществующие авторы, фантомные названия статей, мёртвые URL-ы, которые ведут в никуда.

Три уровня фейков

Самое интересное — галлюцинации оказались разного калибра.

Уровень 1: Откровенная халтура

Авторы типа “John Doe” и “Jane Smith”. Названия в духе “URL or arXiv ID to be updated”. Это как сдать курсовую с пометкой “тут будет ссылка, потом допишу”. Только вот это не курсовая студента-первокурсника, а работа на топовой международной конференции, где каждая статья проходит минимум трёх рецензентов.

Уровень 2: Франкенштейн из реальных статей

ChatGPT берёт несколько настоящих работ, смешивает их авторов, парафразирует названия, добавляет правдоподобные детали — и получается нечто, что выглядит убедительно. Пока не начнёшь проверять. А кто будет проверять каждую из 30-40 ссылок в статье, когда их тысячи на конференции?

Уровень 3: Почти правда (но нет)

Берётся реальная статья, но к списку авторов добавляются 2-3 несуществующих человека. Или название чуть перефразируется. Или инициалы расшифровываются в полное имя, которое ChatGPT просто угадал. Эти ошибки особенно коварны — они проскальзывают даже мимо внимательных рецензентов, потому что выглядят как мелкие неточности форматирования.

Эдвард Тянь, сооснователь и CEO GPTZero, прямо говорит:

“Это ошибки, которые ни один человек не сделал бы в здравом уме. Добавить пять несуществующих авторов к реальной статье? Это явный маркер AI-генерации.”

Цунами AI-мусора

Масштаб проблемы растёт как снежный ком. В 2020 году на NeurIPS подали 9 467 статей. В 2024-м — 15 671. В 2025-м — 21 575 статей. Рост на 220% за пять лет.

И да, значительная часть этого роста — благодаря тому, что теперь написать “ещё одну статью” стало драматически проще. Нейросети помогают генерировать текст, структурировать мысли, форматировать библиографию. Проблема в том, что они делают это с ошибками, которые никто не замечает.

Или не хочет замечать, потому что “publish or perish” — это не метафора в академическом мире. Твоя карьера буквально зависит от количества публикаций в топовых конференциях. Наём, продвижение, тенюр — всё строится на том, сколько у тебя в резюме строчек с логотипом NeurIPS.

А что говорит сама NeurIPS?

Организаторы конференции выпустили дипломатичное заявление в духе “мы знаем о проблеме, работаем над этим, но давайте не будем паниковать”.

Мол, даже если 1.1% статей содержат фейковые ссылки, это не значит, что сами статьи невалидны. Возможно, авторы дали ChatGPT неполное описание источника и попросили сгенерировать BibTeX, и он накосячил.

С одной стороны, это разумное объяснение. С другой — это оправдание проблемы, а не её решение.

Потому что если конференция, которая целиком посвящена машинному обучению, не может отфильтровать AI-галлюцинации на входе — какие шансы у всех остальных?

Вывод, который никто не хочет слышать

Индустрия AI сейчас в странной точке. Мы строим инструменты, которые делают нас продуктивнее. Но при этом они же делают нас ленивее и менее внимательными.

ChatGPT помог написать статью? Отлично. Он же сгенерировал библиографию? Супер! Он случайно добавил пару несуществующих авторов? Ну… мы это не заметили, потому что кто будет проверять 40 ссылок вручную?

И вот результат: ведущая мировая AI-конференция публикует десятки статей с фейковыми источниками. Причём это только те, которых поймали. Сколько их ещё — никто не знает.

Алекс Куи, CTO GPTZero, говорит, что их инструмент проверил только NeurIPS 2025. Остальные конференции — впереди. И что там найдётся — большой вопрос.

Может, пора остановиться и спросить себя: если мы не можем контролировать качество в области, которая буквально изучает эти технологии, то что говорить про ту же медицину и др важные области?

P.S. Забавный факт:

В академическом мире даже одна фейковая ссылка традиционно считается достаточным основанием для отклонения статьи. Но когда их сотня — это уже “системная проблема требует дальнейшего изучения”.

Видимо, масштаб катастрофы даёт иммунитет.

4
11 комментариев