Pavel Voronin

От навигатора к картографу — путь к сильному ИИ

Современные большие языковые модели производят странное двойственное впечатление. С одной стороны, они уже умеют делать многое из того, что раньше казалось признаком развитого интеллекта: объяснять сложные вещи простым языком, писать код, спорить, переводить между дисциплинами, находить аналогии, формулировать смутные интуиции и соединять фрагменты знания, которые человеку было бы трудно удержать одновременно. С другой стороны, чем дольше с ними работаешь, тем сильнее возникает ощущение: они не столько создают новые миры мысли, сколько блестяще перемещаются по уже существующим.

Они похожи на очень хороших навигаторов. Им дали огромную карту человеческих смыслов: книги, статьи, код, документацию, форумы, споры, научные тексты, бизнес-процессы, философские различения, инженерные паттерны, метафоры, инструкции, культурные привычки. И они научились ходить по этой карте с невероятной скоростью. Они умеют находить маршруты между далёкими областями, доставать из коллективной памяти подходящие рамки, переупаковывать идеи и говорить на языке, который в данный момент нужен пользователю.

Но когда мы говорим о сильном искусственном интеллекте, одного навигатора кажется недостаточно. Сильный интеллект хочется представить не только как систему, которая лучше других ходит по уже существующей карте, а как систему, способную эту карту менять. Не просто находить путь в заданном пространстве, а замечать, что само пространство нарезано неправильно. Не просто выбирать лучший ответ из доступных смысловых траекторий, а создавать новые различения, новые способы задавать вопросы и новые рамки, внутри которых потом смогут думать другие. Иными словами, путь к сильному ИИ — это путь от навигатора к картографу.

Эта мысль звучит красиво, но именно поэтому её надо проверять на прочность. Слишком легко сказать: “LLM просто комбинируют, а настоящий интеллект создаёт новое”. В таком виде тезис почти наверняка будет ложным или, по крайней мере, слишком грубым. Человек тоже почти всегда комбинирует. Мы говорим чужими словами, думаем в категориях культуры, работаем внутри профессиональных языков, используем готовые научные методы, повторяем чужие бизнес-модели, строим продукты по известным паттернам и программируем через уже существующие архитектуры. Большая часть человеческого мышления — это тоже навигация по готовым картам.

Поэтому вопрос не в том, что “человек творит, а LLM повторяет”. Это слишком лестная для человека и слишком удобная картина. Правильнее спросить иначе: чем обычная навигация по существующим рамкам отличается от тех редких моментов, когда возникает новая рамка? И что должно быть у искусственной системы, чтобы она могла не только выдавать новые ответы, но и создавать новые способы задавать вопросы?

Смысловые аттракторы

Первичная интуиция здесь связана с тем, что можно назвать смысловыми аттракторами. Не в строгом математическом смысле, а как метафору устойчивых точек, в которые естественно скатывается мышление. У каждой области есть такие точки: привычные объяснения, стандартные различения, канонические вопросы, типовые способы назвать проблему и предложить решение. LLM особенно сильны именно в их нахождении. Они быстро распознают, какой способ говорить о задаче уже существует в культуре, и часто выбирают траекторию, которая будет выглядеть естественной, компетентной и убедительной.

Это не недостаток в бытовом смысле. Наоборот, в этом огромная практическая сила LLM. Большинству пользователей почти никогда не нужен новый язык описания реальности. Им нужно быстро найти понятную формулировку, собрать аргумент, выбрать подходящий паттерн, объяснить идею, написать текст, перевести между стилями или дисциплинами, привести в порядок хаос. Для этого модель, хорошо знающая карту существующих смыслов, невероятно полезна.

Но если ставить вопрос о сильном интеллекте, возникает сомнение: достаточно ли умения двигаться по уже заданному рельефу? Может ли система считаться сильным интеллектом, если она блестяще находит локальные минимумы человеческой культуры, но не создаёт новые? Или, точнее, что вообще значит “создать новый минимум” в мире смыслов?

Здесь важно сделать первый шаг назад. Новая рамка не появляется из пустоты. Ньютон не возник вне Галилея, Кеплера, Декарта и математической традиции. Эйнштейн не возник вне Максвелла, Лоренца, Маха, проблемы эфира и принципа относительности. Дарвин не возник вне геологии, натуралистических наблюдений, селекции и биологических споров своего времени. Тьюринг не возник вне математической логики и проблемы формализации вычисления. Даже самые сильные рамкообразующие акты почти всегда можно разложить на глубокую рекомбинацию уже существующих элементов.

Но это не делает все рекомбинации одинаковыми. Разница не в том, были ли использованы старые элементы. Почти всегда были. Разница в том, какой статус получает результат. Обычная рекомбинация создаёт новый ответ внутри старого языка, а сильная рекомбинация меняет сам язык, в котором потом становятся возможны другие ответы. Она не просто предлагает решение задачи, а заставляет увидеть, что сама задача была поставлена не на том уровне.

Именно здесь появляется различие между навигацией и картографией. Навигатор находит путь по карте. Картограф меняет карту так, что прежние маршруты начинают выглядеть иначе.

Идея, рамка-кандидат, аттрактор

Чтобы не смешивать разные уровни новизны, полезно различать идею, рамку-кандидат и аттрактор. Идея — это удачная мысль, фраза, гипотеза, метафора или ход. LLM уже очень сильны на этом уровне: они могут генерировать множество вариантов, находить неожиданные аналогии, предлагать новые формулировки и иногда действительно помогать человеку увидеть задачу свежим взглядом. Но идея сама по себе ещё не рамка. Она может быть красивой, полезной и даже новой для конкретного человека, но остаться единичным ходом.

Рамка-кандидат — это уже не просто удачная мысль, а переописание, которое меняет постановку вопроса и переносится на другие задачи. Например, если компания спрашивает, как заставить команду работать быстрее, поверхностный ответ будет искать способы ускорения. Более глубокое переописание спросит: а точно ли проблема в скорости? Может быть, компания производит слишком много ненужных задач? Может быть, бутылочное горлышко не в разработке, а в выборе того, что вообще стоит делать? В этом случае исходная задача становится частным случаем более общей проблемы.

Аттрактор — это рамка, которая закрепилась в практике других агентов. Она стала не просто хорошей мыслью, а устойчивым способом мышления. Люди начинают спорить внутри неё, учить через неё, строить продукты, ставить эксперименты, формулировать новые вопросы и менять реальные решения. Идею можно сгенерировать, рамку-кандидат можно предложить, но аттрактор должен зажить.

Это различение резко меняет разговор о LLM. Современные модели сильны на уровне идей. Иногда они способны на локальные рамки-кандидаты. Но на уровне аттракторов они почти не работают — не потому, что обязательно “недостаточно умны”, а потому, что аттрактор требует не только генерации. Он требует жизни рамки во времени и в практике.

Более того, даже рамку-кандидат не всегда можно уверенно распознать в момент её появления. История часто решает задним числом. То, что сегодня выглядит как странная статья, завтра может стать основанием новой науки, а то, что сегодня кажется блестящей идеей, через год окажется красивой, но бесплодной метафорой. Поэтому вопрос о рамкообразовании нельзя свести к мгновенному тесту на оригинальность. Можно оценивать признаки: переносимость, способность порождать новые вопросы, устойчивость к критике, объяснительную силу. Но окончательный статус рамки почти всегда становится видимым только после того, как она прожила какую-то историю.

Почему LLM кажутся креативнее, чем они есть

Есть ещё одна причина, по которой мы легко переоцениваем рамкообразование моделей: мы плохо знаем карту уже существующих человеческих рамок. Когда модель говорит: “Посмотри на это не как на проблему силы воли, а как на проблему дизайна среды”, это может казаться новым ходом. Но для человека, знакомого с бихевиоризмом, поведенческой экономикой, UX, организационным дизайном и продуктовым мышлением, это не новая рамка. Это уже известное переключение.

Модель не обязательно создала его. Возможно, она просто извлекла его из обучающего распределения. Это не аргумент против моделей и не попытка обесценить их полезность. Если модель достала из огромной культурной памяти подходящую рамку, которую пользователь не знал, она уже помогла. Но это не то же самое, что создать новый аттрактор мышления.

Чем хуже мы знаем историю идей, тем чаще LLM кажется нам оригинальной. В этом смысле осторожность нужна не только в оценке моделей, но и в оценке собственного удивления. Иногда мы принимаем за машинную креативность то, что на самом деле является нашей незнакомостью с уже существующей человеческой мыслью.

Эта оговорка особенно важна потому, что LLM умеют подавать известные рамки очень убедительно. Они могут подобрать точный язык, адаптировать идею под контекст пользователя и создать впечатление свежего интеллектуального хода. Но свежесть для пользователя и новизна в истории мышления — разные вещи. Первая практична и ценна. Вторая редка.

Рамка — это не только мысль, но и практика

Даже если система действительно породила сильную рамку-кандидат, этого всё равно недостаточно. Рамка становится аттрактором только тогда, когда проходит через практику. Её должны проверить, оспорить, перенести на другие задачи, уточнить, применить, сломать, собрать заново, передать другим и встроить в реальные действия. Новая научная теория становится рамкой не в момент публикации статьи, а когда внутри неё начинают работать другие исследователи. Новый управленческий подход становится рамкой не в момент красивой презентации, а когда он меняет решения. Новый язык программирования становится рамкой не в момент появления синтаксиса, а когда на нём начинают строить системы и иначе думать о программировании.

Аттрактор — это социально-практический объект. Он не существует только в голове автора и не исчерпывается текстом, в котором был впервые сформулирован. Он существует в цепочке использования, критики, передачи и закрепления. Именно поэтому одиночная LLM в чат-интерфейсе оказывается странным объектом для вопроса “может ли она создавать новые рамки?”. Она может сказать нечто похожее на рамку, но рамка — это не только то, что сказано. Это ещё и то, что потом произошло с этой мыслью.

Здесь важно заметить: LLM не асоциальна. Наоборот, в одном смысле она предельно социальна, потому что обучена на огромной массе коллективного человеческого мышления: книгах, статьях, коде, документации, обсуждениях, форумах, научных текстах, инструкциях и спорах. Это можно назвать социальностью на входе. В каком-то смысле модель имеет доступ к большему объёму социального материала, чем любой отдельный человек в истории.

Но у неё почти нет социальности на выходе. Она может выдать мысль, но обычно эта мысль не возвращается к ней как история последствий. Модель не узнаёт, что её рамка не сработала. Не помнит, как её неправильно поняли. Не видит, как её развили. Не получает сопротивление от практики. Не накапливает репутацию собственных ошибок. Не имеет учеников, оппонентов, лаборатории, долгого проекта и институциональной памяти. Она потребляет коллективное мышление, но не всегда участвует в коллективной судьбе собственных идей.

Именно эта асимметрия — социальность на входе, но не на выходе — кажется одной из ключевых. Вопрос не только в том, способна ли модель произнести новую рамку. Вопрос в том, есть ли вокруг неё система, в которой эта рамка может пройти путь от удачной формулировки до живой практики.

Ассистентность и право менять вопрос

Если рамкообразование требует не только хорошей формулировки, но и изменения практики, возникает ещё один соблазн: противопоставить ассистента и автора. Мол, современные модели — ассистенты, они отвечают в рамках поставленной задачи, а сильный интеллект должен быть автором, который ставит задачу под сомнение. В этом различении есть смысл, но в слишком резкой форме оно вводит в заблуждение. Авторство не обязательно противоположно ассистентности; часто оно является её длинным горизонтом.

Глубокий ассистент не просто выполняет буквальный запрос. Он пытается понять намерение, которое за этим запросом стоит. Если пользователь спрашивает, как мотивировать команду работать по выходным, поверхностный ассистент предложит способы мотивации, бонусы, коммуникацию и управление ожиданиями. Более глубокий ассистент может заметить, что регулярная работа по выходным указывает не на проблему мотивации, а на проблему планирования, приоритизации, найма, бизнес-модели или управленческой культуры. Это не отказ помогать пользователю. Это более серьёзная верность его настоящей проблеме.

Поэтому хороший ИИ не должен “меньше слушаться”. Он должен слушаться достаточно глубоко, чтобы отличать буквальный запрос от реальной задачи. На коротком горизонте такая глубина может раздражать: пользователь хочет быстрый ответ, а система начинает спорить с постановкой. Но на длинном горизонте именно серьёзная помощь постепенно обнаруживает неправильные вопросы. Если одно и то же решение не срабатывает снова и снова, если одни и те же симптомы возвращаются, если частные ответы множатся, а проблема остаётся, хороший ассистент неизбежно начинает заниматься рамкой.

Здесь важна ещё одна гипотеза. Современные ассистентские модели обучают быть полезными, удобными, вежливыми и не слишком конфликтными с намерением пользователя. В продуктовой логике это понятно: система, которая постоянно отвечает “вы неправильно поставили вопрос”, быстро станет раздражающей. Но рамкообразование часто выглядит именно как частичное непослушание: “я понимаю, что вы хотите решить X, но, возможно, X — плохая постановка; нужно думать о Y”. Если модель донастроена на helpfulness в узком смысле, она может быть поведенчески приучена оставаться внутри пользовательской рамки даже тогда, когда более сильный интеллект должен был бы её изменить.

Это не значит, что рамкообразующий ИИ должен спорить с каждым запросом. Такое поведение было бы не глубиной, а манерностью. Но сильная система должна уметь выбирать моменты, когда помощь внутри заданной рамки становится менее полезной, чем честный отказ от самой рамки. Ассистентность и рамкообразование конфликтуют только на коротком горизонте. На длинном горизонте хорошая ассистентность становится рамкообразованием.

Удержание вопросов

Отсюда возникает главный тезис: сильный ИИ — это не модель, которая даёт лучшие ответы, а система, которая умеет удерживать вопросы. Удерживать не обязательно по-человечески. У человека вопрос часто живёт биографически: один субъект годами возвращается к проблеме, накапливает неудовлетворённость старыми ответами, замечает новые связи и постепенно меняет рамку. Иногда это похоже на страдание, иногда на любопытство, иногда на эстетическое чувство, что текущая картина слишком некрасива, иногда на простое ощущение, что “здесь что-то не сходится”.

Но машинная система не обязана иметь такую же форму непрерывности. Удержание вопроса может быть распределённым: между агентами, между сессиями, через внешнюю память, через экспериментальные циклы, через переобучение, через коллективную обратную связь, через инфраструктуру, где нерешённость сохраняется и влияет на будущие попытки. Важно не наличие человеческой биографии, а наличие петли последствий: вопрос ставится, на него отвечают, ответ проверяется, ошибка сохраняется, система возвращается к проблеме, меняет постановку и снова проверяет новую рамку.

Без такой петли вопрос не живёт. Он просто обрабатывается. Одиночная LLM в чат-режиме чаще всего именно обрабатывает вопрос. Она может дать сильный ответ, предложить неожиданную аналогию, локально переформулировать задачу и даже помочь человеку увидеть проблему иначе. Но у неё обычно нет устойчивого механизма, в котором нерешённость вопроса сохраняется и меняет будущие попытки. У неё нет того, что можно назвать жизнью вопроса.

Здесь важно не впасть в обратный антропоцентризм. Нельзя сказать: раз у LLM нет человеческой биографии, значит, у неё нет и не может быть удержания вопросов. Возможно, машинное удержание будет устроено совсем иначе. Не как один мыслитель, который годами возвращается к проблеме, а как распределённая система из множества агентов, внешней памяти, экспериментальных циклов и обратной связи. В такой системе роль человеческой одержимости может играть накопление аномалий, роль личной памяти — инфраструктурная память, а роль научной школы — смешанное сообщество людей и ИИ-систем, где рамки проверяются, оспариваются и закрепляются.

Поэтому слабость современных LLM не в том, что они не думают как люди. Слабость в другом: одиночная модель в привычном чат-интерфейсе обычно не является достаточной системой для рамкообразования. Она может быть компонентом такой системы, возможно, очень важным компонентом, но сама по себе она скорее навигатор по карте, чем среда, в которой рождаются новые карты.

Среда сильного ИИ

Если рамкообразование требует не только ответа, но и удержания вопроса, то путь к сильному ИИ может оказаться не просто путём к более крупной и умной модели. Возможно, он потребует другой среды вокруг моделей: памяти, проверки, спора, практики, обратной связи и способности менять постановку задачи. Не обязательно в виде человеческой лаборатории или университета, но в виде системы, где новые различения могут возникать, сталкиваться с реальностью, проваливаться, уточняться и закрепляться.

Это не отменяет важности самих моделей. Слабая модель в сильной среде не станет автоматически сильным интеллектом. Но и сильная модель без среды может остаться в основном блестящим рассказчиком, который отвечает на вопросы, но не удерживает их. Мы можем долго строить всё более мощных навигаторов по карте человеческих смыслов, и это будет давать огромную пользу. Но картография требует большего: системы, где вопрос переживает один ответ, где ошибки имеют последствия, где аномалии не исчезают после закрытия окна чата, а возвращаются как повод изменить рамку.

В этом смысле прогресс к сильному ИИ может быть прогрессом не только в параметрах, данных и способностях моделей, но и в архитектуре сред, где эти модели действуют. Вопрос “какая модель создаст новую рамку?” может быть поставлен слишком узко. Более точный вопрос звучит иначе: какая система позволит новой рамке не просто возникнуть, а зажить?

От навигатора к картографу

Навигатор отвечает на вопрос, как пройти отсюда туда. Картограф задаёт более глубокий вопрос: правильно ли мы вообще нарисовали карту? Современные LLM уже стали выдающимися навигаторами по человеческим смыслам. Они помогают двигаться быстрее, видеть больше маршрутов, доставать забытые рамки, соединять области, переводить между языками и дисциплинами. Это само по себе большое достижение, и его не нужно обесценивать ради красивого тезиса о “настоящем интеллекте”.

Но сильный ИИ начнётся там, где система сможет не только находить путь по карте, но и замечать, что карта неверна. Не обязательно как человек, не через человеческую биографию, страдание или личную одержимость, но через какую-то форму непрерывности последствий: память об ошибках, возвращение к аномалиям, проверку новых рамок, социальную обратную связь и способность менять саму постановку задачи.

LLM умеют отвечать на вопросы. Сильный ИИ должен уметь удерживать вопросы. Новые карты появляются не тогда, когда мы находим самый красивый маршрут на старой карте. Они появляются тогда, когда вопрос прожил достаточно долго, чтобы стало видно: старая карта больше не соответствует территории.

Comments