Новый «Гигачат»: долгая память, зачатки самопознания. Как работает последняя версия GigaChat Ultra
© Коллаж: «Теперь вы знаете», создано при помощи нейросети
Во вторник, 24 марта, «Сбер» представил обновленную версию своего ИИ-помощника «Гигачат» — на базе флагманской модели GigaChat Ultra. На первый взгляд это выглядит как просто очередной апгрейд: быстрее, умнее, точнее. Такие новости появляются каждую неделю — все ИИ-модели непрерывно развиваются и 2−4 раза в год выкатывают какую-нибудь новую свою версию.
Но если разобрать детали, становится ясно — речь идет уже о попытке поменять сам принцип взаимодействия человека с цифровыми сервисами на основе ИИ-модели от «Сбера».
Что изменилось?
Самое заметное нововведение — долгосрочная память. Раньше общение с ИИ выглядело как серия отдельных диалогов: каждый новый чат начинался с нуля, причем рекомендовалось каждый раз задавать контекст заново.
Теперь модель автоматически запоминает факты о пользователе и переносит их между сессиями.
Речь не только о предпочтениях вроде «люблю краткие ответы» или «не подлизывайся». Система может учитывать профессию, задачи, привычки, даже информацию о близких — в той мере, в которой человек сам ее сообщает.
«Обновление затронет повседневные сценарии миллионов пользователей. Благодаря долгосрочной памяти „Гигачат“ теперь помнит, что пользователь, например, филолог, увлеченный текстами, его сын интересуется аниме, а сам он работает менеджером по продажам, — и учитывает это в каждом новом диалоге без необходимости повторять контекст», — ответили на запрос ТВЗ в пресс-службе «Сбера».
Эти данные синхронизируются между устройствами при входе через «Сбер» ID, хотя саму функцию можно отключить, если вам не нравится, что ИИ знает о вас слишком много.
Главный плюс долгосрочной памяти заключается в том, что она разделяет постоянное знание и ситуативный контекст. Система может поддерживать высокий уровень персонализации и согласованности, не расходуя драгоценное место в контекстном окне на повторяющуюся из запроса в запрос информацию. Эта эволюция важна для превращения ИИ из чат-инструмента в максимально персонализированного агента, способного справляться со сложными долгосрочными задачами и сопровождать человека в повседневности.
Так или иначе, это принципиальный сдвиг: ИИ перестает быть «обезличенным универсальным инструментом» и начинает работать с конкретно вашим накопленным контекстом. Проще говоря, теперь пользователю можно меньше объяснять и больше получать ответов по делу.
И что немаловажно, это обновление делает модель еще и безопаснее.
Долгое время главной болью в работе с LLM (большими языковыми моделями) была «амнезия» в диалоге. В традиционном подходе каждый новый запрос для модели — это как разговор с незнакомцем, который забыл, о чем вы говорили 5 минут назад.
Добавление долгосрочной памяти и самопознания решает три критически важные для нас задачи. Это снижение векторов атак через инъекции, контроль аутентичности и защита персонализации модели.
Второе изменение — скорость. По данным компании, ответы в новой модели генерируются примерно в два раза быстрее. За этим стоит архитектура Mixture of Experts: модель работает как команда узких специалистов и «подключает» только нужные части под конкретную задачу.
Для пользователя эффект очевиден — меньше ожидания даже на сложных запросах.
Третье — встроенный интернет-поиск. Теперь GigaChat по умолчанию сам подтягивает актуальную информацию из интернета, не требуя включать для этого отдельный режим. Это уже доступно у иностранных конкурентов, Алисы от "Яндекса" и важно для задач, где данные быстро устаревают: новости, рынки, курсы, события.
Онлайн-поиск работает даже в режиме «Общение голосом». В результате диалог с голосовым ассистентом на базе Gigachat по заверениям компании стал полноценно интерактивным: пользователь может перебивать модель, уточнять детали или мгновенно менять тему — система обрабатывает смену контекста без задержки, уточняя информацию онлайн в режиме реального времени. После завершения разговора в чате можно будет прочитать ее полную текстовую расшифровку.
Что изменилось под капотом
Во-первых, появился встроенный код-интерпретатор. Это изолированная среда выполнения программного кода прямо в интерфейсе помощника.
Раньше нейросеть могла сгенерировать код, но не могла его проверить — этим занимались программисты-вайбкодеры. Теперь она сама его запускает в изолированной среде и проверяет на работоспособность: обрабатывает файлы, считает, строит графики, валидирует данные, не затрагивая системы пользователя.
Как пояснил для нас представитель «Сбера», эта функция полезна не только программистам. Встроенный интерпретатор кода превращает «Гигачат» в персональный аналитический инструмент для любых деловых и повседневных задач. Достаточно загрузить таблицу с расходами — и помощник сам обработает данные, найдет отклонения и построит наглядный график прямо в чате.
Во-вторых, улучшилась работа в прикладных задачах. По словам разработчиков, заметный рост качества есть в математике, программировании, а также в сферах, где важна точная терминология, — право, финансы, медицина, кибербезопасность. Особенно с учетом российской специфики.
По оценкам экспертов компании и по данным открытых тестов («весов»), флагманская модель GigaChat Ultra уже сейчас превосходит DeepSeek V3.1, Qwen3−235B и своего предшественника GigaChat 2 Max в русскоязычных задачах, математике и общих рассуждениях. Открытые независимые тесты пока не проводились.
И, наконец, в-третьих, появилась функция «самопознания». Модель теперь отвечает на вопросы о себе, опираясь на актуальную документацию.
Это попытка решить старую проблему нейросетей — когда они уверенно рассказывают о несуществующих функциях или устаревших возможностях, о которых они просто не могли знать.
Добавление самопознания и долгосрочной памяти — это не фича для развлечения. Это база для построения действительно сложных систем автоматизации расследований и аналитики. Это позволяет снизить когнитивную нагрузку на оператора и переложить на ИИ поддержание целостности контекста.
Если упростить, раньше нейросеть была «умным собеседником». Теперь она постепенно становится рабочим инструментом.
Следующий шаг, который в планах компании на этот год, — автономность. «Сбер» уже тестирует сценарии, где пользователь дает задачу, а ИИ выполняет ее в фоне и возвращается с результатом. Это попытка делегирования действий, как, например, в агентах-ботах GPT, Claude или OpenClaw.