|
|
||
This preprint introduces AI-Resilient Science, a methodological framework for AI-assisted research in which large language models are used not as sources of truth, but as tools for deductive reconstruction and coherence testing of theoretical systems. The approach is based on axiomatic context preparation (in-context learning), cross-validation between independent language models, and the use of executable documents that allow theories to be reconstructed rather than merely read. A central contribution is a new criterion of reproducibility: reproducibility of reasoning structure, not textual output. The paper explicitly separates human authorship and responsibility (axioms, interpretation, empirical commitments) from AI computation (deductive expansion, consistency stress-tests). AI hallucinations are reframed as diagnostic signals revealing underspecified assumptions. The methodology is grounded in classical epistemology and philosophy of science and is illustrated using the Temporal Theory of the Universe (TTU). The work is intended for researchers in philosophy of science, theoretical physics, and AI-assisted methodology. | ||
Аннотация
В статье предлагается новая методология научного познания в эпоху больших языковых моделей (LLM), основанная на использовании искусственного интеллекта не как источника истины или генератора знаний ex nihilo, а как вычислительного инструмента для дедуктивной реконструкции теоретических систем. Метод, обозначаемый как AI-Resilient Science, опирается на аксиоматическую подготовку контекста (фильтры), перекрёстную проверку между независимыми моделями и создание так называемых исполняемых документов, которые служат операционной спецификацией теории.
Предложенный подход позволяет формализовать процесс генерации гипотез, обеспечить воспроизводимость теоретических выводов и трансформировать феномен галлюцинаций ИИ из дефекта в элемент научного метода. Методологические основания обсуждаются в контексте августиновской эпистемологии, согласно которой разум не творит истину из ничего, а актуализирует и организует уже данное. В качестве примера применения рассматривается темпоральная теория Вселенной (TTU), где ИИ используется как строгий логический оппонент, проверяющий внутреннюю когерентность онтологии времени как субстанции.
1. Введение
Современные большие языковые модели (LLM), такие как GPT, Gemini или Claude, часто воспринимаются либо как универсальные оракулы, либо как статистические имитаторы знания, непригодные для серьёзной науки. Оба подхода являются методологически наивными. Настоящая работа исходит из иной позиции: LLM следует рассматривать как вычислительные движки дедукции, способные разворачивать сложные логические структуры при условии корректно заданных аксиом и ограничений.
Мы вводим понятие AI-Resilient Science науки, устойчивой к ИИ и одновременно восстанавливаемой с его помощью. В рамках этого подхода ИИ не подменяет мышление исследователя, а усиливает его, выступая в роли строгого, но онтологически слепого логика. Источник смысла, аксиом и интерпретаций остаётся за человеком.
2. Фильтры как аксиоматическая основа (In-Context Ontology)
Ключевым элементом метода является подготовка контекста, которую автор называет фильтрами. В терминах машинного обучения это соответствует расширенной форме In-Context Learning: в рабочую сессию ИИ загружается не набор фактов, а структурированная онтология предметной области, включающая аксиомы, определения и допустимые формы вывода.
Принципиально важно, что такие фильтры не обязаны быть оптимизированы под человеческое чтение. Напротив, они могут быть ориентированы на машинную интерпретацию, играя роль операционной спецификации мышления. В этом смысле фильтр это не просто текст, а исполняемый документ, который при загрузке в модель разворачивается в систему логических следствий.
Пример (TTU)
Для работы с темпоральной теорией Вселенной (TTU) используются три базовых документа, задающих:
Совокупность этих документов образует то, что можно назвать исполняемой теорией: при загрузке в контекст ИИ она не просто читается, а разворачивается в систему логических следствий.
3. Перекрёстная проверка как AI-based Peer Review
Важнейшим элементом метода является перекрёстная проверка выводов между различными языковыми моделями. Каждая модель представляет собой вероятностный аппроксиматор с собственными статистическими приоритетами и архитектурными особенностями. Их расхождения и совпадения несут методологически значимую информацию.
Формально:
Таким образом, ИИ используется как состязательная система рассуждения, аналог распределённого peer-review, где человек остаётся финальным арбитром и интерпретатором. В отличие от традиционного рецензирования, здесь проверка может быть многократно повторена, автоматизирована и прозрачно воспроизводима.
4. Исполняемые документы и критерий AI-Resilience
Показателен феномен, при котором некоторые системы (например, Copilot) отказываются обрабатывать документы, которые сами же сгенерировали, интерпретируя их как потенциально опасные исполняемые файлы. Это не ошибка, а симптом: такие тексты воспринимаются не как пассивное содержание, а как управляющий код, способный изменить режим работы модели.
Определение (AI-Resilient Theory)
Теория называется AI-Resilient, если независимая языковая модель, получив её аксиоматическую спецификацию, способна реконструировать ту же систему выводов без доступа к оригинальному текста.
Тем самым вводится новый критерий научной воспроизводимости:
воспроизводится не текст, а структура мышления, лежащая в основе теории.
5. Философские основания: августиновская эпистемология и современный контекст
Метод AI-Resilient Science укоренён в классической эпистемологии, в частности в учении Блаженного Августина. Согласно Августину, человек не творит истину ex nihilo это прерогатива Бога. Человеческий разум лишь соединяет, упорядочивает и актуализирует уже данное.
Эта позиция удивительно точно соответствует механике LLM:
Метафора борща здесь показательна: ингредиенты сами по себе не равны готовому блюду, но и блюдо не возникает без них. Новое качество рождается в процессе организации и трансформации, а не из пустоты.
Дополнение: Поппер и Кун
В терминах Поппера, AI-Resilient Science усиливает принцип фальсифицируемости: расхождения между моделями выступают индикатором слабых мест теории.
В терминах Куна, парадигмы могут быть зафиксированы как исполняемые документы, а их смена отслежена через перекрёстную дедукцию.
6. Применение в физике: время как субстанция (TTU)
Метод был апробирован при разработке темпоральной теории Вселенной (TTU), где время рассматривается не как параметр или координата, а как онтологически реальная, сотворённая субстанция.
Ключевые положения:
ИИ в этом контексте используется не как подтверждение истинности, а как идеальный логик, проверяющий внутреннюю непротиворечивость и дедуктивную полноту теории.
7. Пошаговый протокол AI-Resilient Science
Ограничения метода
Необходимо подчеркнуть, что AI-Resilient Science не претендует на замену экспериментального метода и не устраняет фундаментальную зависимость теории от качества исходных аксиом. Если аксиомы заданы некорректно, внутренне противоречивы или не соответствуют физической реальности, ИИ может воспроизвести лишь когерентную, но онтологически ложную модель. В этом смысле ИИ гарантирует логическую непротиворечивость, но не истинность по отношению к природе.
Кроме того, метод принципиально не способен заменить эмпирическую проверку: он служит инструментом дедуктивного анализа, а не источником наблюдательных данных. Его сила заключается в структурной проверке теорий, выявлении скрытых предпосылок и логических разрывов, но окончательное подтверждение или опровержение любой физической модели остаётся за экспериментом и наблюдением.
8. Заключение
Метод AI-Resilient Science представляет собой новую форму научного производства, объединяющую философию, математику и инженерное мышление. Он:
Это не игра с чат-ботами, а формирование новой эпистемологической инфраструктуры науки XXI века, где философия задаёт основания, математика формализует аксиомы, ИИ проверяет когерентность, а эксперимент остаётся финальным арбитром истины.
Направления дальнейших исследований
CORE REFERENCES (основной текст статьи)
(коротко, сухо, без лирики)
Epistemology & Philosophy of Knowledge
Philosophy of Science
Large Language Models & In-Context Learning
Critique & Limitations of AI
Philosophy of Information & AI
Ontology of Time
Authors Works
Всё. Чисто. Рецензент доволен.
Appendix A
Extended Annotated Review: Conceptual Sources of AI-Resilient Science
Вот это то, что реально читают.
Это не примечания, это интеллектуальный маршрут.
A.1 Augustine: Why Knowledge Is Never Created Ex Nihilo
Августин вводит фундаментальное ограничение человеческого (и любого конечного) разума: он не творит истину, а лишь распознаёт и актуализирует её в уже данном порядке бытия. Это ключевая предпосылка AI-Resilient Science.
LLM в этом смысле радикально августиновская машина:
она не знает мира, но способна актуализировать структуру знания внутри заданной онтологии. Именно здесь проводится граница между генерацией и истиной.
A.2 Polanyi: Tacit Knowledge and the Limit of Formalization
Майкл Полани показывает, что значительная часть знания является неявной, телесной, контекстной.
Это снимает иллюзию, что ИИ может заменить исследователя.
AI-Resilient Science не борется с этим пределом
она встраивает его: ИИ работает строго внутри формализуемого слоя, человек остаётся носителем онтологии и интерпретации.
A.3 PopperKuhnLakatos: From Falsification to Program Stability
AI-Resilient Science это операционализация этих идей в цифровой среде.
A.4 Transformers and In-Context Learning: Why Filters Work
Работы Vaswani, Brown, Wei и Min показывают:
LLM не понимают, но строго следуют структуре контекста.
Фильтры =
искусственно заданные априорные формы рассуждения
По сути, ты вручную задаёшь модель Канта но для машины.
A.5 Hallucinations: From Bug to Diagnostic Signal
Большинство работ рассматривают галлюцинации как дефект.
AI-Resilient Science делает ход уровня дзюдо:
галлюцинация = индикатор слабого места аксиом
Если разные модели галлюцинируют по-разному
значит, теория недостаточно жёстко определена.
A.6 Floridi & Shanahan: AI Without Truth Access
Floridi и Shanahan дают философскую легитимацию твоей позиции:
Это ровно та роль, которую ты ему и отвёл.
A.7 Time Without Time: Why TTU Is a Counter-Paradigm
Rovelli и Barbour это попытка устранить время.
TTU попытка вернуть время как причину.
Именно поэтому TTU идеально подходит как тест-кейс:
она требует строгой дедукции и сразу ломается, если аксиомы слабы.
|