AI кейс: использование LLM для анализа научных статей

Вот крутой пример AI кейса, который прислали в форму из вчерашнего поста. В цитатах слова его автора:

Я инженер в Hardware DeepTech. Часто нужно читать и анализировать доменные научные статьи. С помощью LLM+Obsidian cделал knowledge base как у Andrey Karpathy. По сути псведо RAG система без плясок с бубном.

Позволяет задавать вопросы к большому корпусу знаний с выверенным контекстом и без галюцинаций. Например, прошу скомпилировать обзор и сравнение решений какой-то узкой задачи.

Кейс применим не только для научный статей конечно. Его суть:

Использую допиленную версию этого репозитория claude-obsidian, но можно использовать как есть. Для экономии токенов pdf можно парсить с помощью Notebook LM можно закидывать их и выгружать саммари бесплатно (но есть шанс, что что-то будет упущено). Лучше всего использовать этот препроцессор, он парсит pdf в удобный для LLM формат.

Также можно просить Notebook LM или бесплатный Gemini делать Deep Research по теме и результат добавлять в нашу систему как входные данные.

Обычно процесс выглядит так: беру пачку статей по теме (например "Потеря устойчивости тонкостенных труб"), конвертирую их, затем прошу Claude Code "/wiki-ingest parse new articles in the folder X" (скилл wiki-ingest берется из репозитория выше).

После этого задаю вопросы по теме например "\wiki-query Provide extensive technical report on all factors affecting thin-walled tubes buckling"

Получаю ответы по теме со ссылками на первоисточники без галлюцинций.

Для промпта "\wiki-query Provide extensive technical report on all factors affecting thin-walled tubes buckling" на выходе получается подробный обзор литературы с формулами и диапазонами параметров труб. Всегда можно задать этому отчёту уточнющие вопросы, например "вот у меня есть труба X, на сколько вероятно что она потеряет устойчисовсть под нагрузкой Y, что я могу изменить, чтобы этого избежать" и получать практические рекомендации с обоснованием.

Важные детали:

Я не думал, что LLM сможет так хорошо улавливать суть научных статей, но я просил её анализировать пару сложных проблем и она довольно точно ухватывала суть из научных статей и давала качественные ответы.

Чтение условных 50 статей и их сопоставление с тем, что уже есть в базе данных уходило бы 1-2 рабочих дня, Opus 4.7 справляется за 30 минут. Да, все равно на мне чтение первоисточников из ответов, но я экономлю время на поиске релевантной информации.

При извлечении информации LLM все равно может упускать детали и нужно всегда ходить по ссылкам в первоисточники и проверять, но как быстрый поиск по базе знаний работает на 100%

С чем LLM не справляется:

У LLM нет понимания сутейной части, всё же это просто предскзатель тектсовых токенов, поэтому выводы из сложных статей она делает, как пересказ содержимого, но не может экстраполировать. Плюс все что касается пространственного мышления, для нее не понятно, поэтому когда она пытается описывать физические объекты в пространстве, получается плохо.

📎 Еще автор кейса приложил полезный файл:

Скомпелированный claude-desktop plugin (zip файл со всеми скиллами и агентами, можно распаковать и попросить клода скомпилировать плагин в чате). Его можно просто добавить в 2 клика, я не прикладываю обвзяку из obsidian так как она вторична, по сути LLM взаимодействует с тектовыми файлами. Obsidian это просто удобный просмоторщик для человека.

Но файл получат только те, кто тоже отправят свои кейсы в форме из поста, описав так же практично 🙂

Подписывайтесь на Telegram kyrillic.

1 комментарий