Новый метод обучения позволяет ИИ развиваться за счёт вопросов, которые модель задаёт сама себе
Исследователи в области искусственного интеллекта начали экспериментировать с моделями, которые способны обучаться без прямого участия человека — за счёт постановки собственных вопросов и поиска ответов на них. Такой подход рассматривается как один из возможных путей к созданию систем с более высоким уровнем самостоятельного мышления, чем у современных моделей, обучающихся в основном на размеченных данных.
Учёные из нескольких исследовательских центров, включая Tsinghua University, Beijing Institute for General Artificial Intelligence и Penn State University, разработали систему, в которой ИИ сам формулирует вопросы и пытается на них ответить, чтобы улучшать свои навыки без новых данных, помеченных людьми. В основе подхода лежит простая идея: вместо того чтобы ждать новых данных или заданий от человека, модель сама формулирует задачи, которые считает полезными для собственного обучения, а затем пытается их решить. Успешные и неудачные попытки используются для обновления внутренних параметров модели.
В экспериментах такие системы работали с задачами, где результат можно однозначно проверить — например, с программированием или логическими задачами. Модель генерировала вопрос или задание, пыталась получить корректное решение, а затем сравнивала результат с формальными критериями успеха. За счёт этого она могла корректировать собственные стратегии без внешней оценки со стороны человека.
Важно, что в этих работах не утверждается, будто ИИ уже «думает» или «понимает» в человеческом смысле. Речь идёт о расширении механизмов обучения. Если традиционные модели зависят от больших массивов данных, подготовленных людьми, то здесь появляется возможность для непрерывного самообучения даже при отсутствии новых входных данных. Это снижает зависимость от человеческого контроля и делает систему более автономной в развитии своих навыков.
Именно этот момент и привлекает внимание исследователей, рассуждающих о перспективах сверхинтеллекта. В теории одним из ключевых условий для его появления считается способность системы улучшать себя без постоянного вмешательства извне. Модели, которые сами выбирают, чему им учиться дальше, приближаются к этому условию, пусть пока и в очень ограниченной форме.
При этом сами авторы подчёркивают ограничения подхода. Самостоятельная постановка вопросов работает только в строго очерченных областях и не заменяет человеческое понимание целей. Кроме того, такие системы могут зацикливаться на узком наборе задач или усиливать собственные ошибки, если критерии оценки выбраны неверно. Пока речь идёт скорее о дополнении к существующим методам обучения, чем о радикальной замене.
Тем не менее направление выглядит показательно. Оно смещает фокус с наращивания объёма данных и вычислительных ресурсов на внутреннюю организацию обучения. Если подобные механизмы удастся масштабировать и сочетать с более сложными формами оценки и планирования, они могут стать одним из строительных блоков будущих систем с существенно более высоким уровнем автономности.