Spydell_finance
رفتن به کانال در Telegram
Финансовые рынки, экономика, корпоративная аналитика, финансово-экономическая инфографика и статистика. Технологии и ИИ. Связь: telegram@spydell.ru spydell.telegram@gmail.com № 4881892760 https://www.gosuslugi.ru/snet/6752f6e546efdb335e2cb688
نمایش بیشتر2025 سال در اعداد

135 989
مشترکین
+1024 ساعت
-1817 روز
-1 13930 روز
آرشیو پست ها
Понимание сильных и слабых сторон LLMs позволит не только использовать их более эффективно в личных и бизнес проектах, но и понимать уязвимость невероятного пузыря, не имеющих аналогов в истории человечества (около 52 избыточной мировой капитализации на ИИ хайпе и до 0.5 трлн инвестиций в год от мировых компаний в реальной экономике).
Оглушительный хайп вокруг ИИ во многом связан с попыткой проекцией сверхъестественных свойств, но эти LLMs имеют массу ограничений. Я выпустил очень много материалов, но даже в них рассмотрел лишь часть.
Начну с самого важного и принципиального.
▪️Фундаментальная неспособность к инновациям. Любая инновация (новая идея, альтернативная гипотеза, концептуальный или технологический прорыв) - это статистическая аномалия (выброс), а архитектура LLM в своем ядре заточена эти выбросы сглаживать и/или игнорировать (зависит от пресетов и настроек моделей).
LLM обучается минимизировать ошибку (Loss Function) на огромном массиве данных, она математически штрафуется за любые отклонения от «нормального» распределения. Веса модели - это усредненный слепок коллективного разума (и глупости).
LLM архитектурна не способна к инновациям, это семантический блендер. Если в обучающие данные положить стейк (научные факты), торт (художественную литературу) и гнилые овощи (форумный спам, интернет дебаты), на выходе вы получите однородную, легко усваиваемую питательную массу без вкуса и текстуры. В этом важно то, что выделить обратно стейк невозможно, из этого следует …
▪️Качество данных определяет все. Это не архитектурный баг, а обучающее несовершенство. В своей основе LLM выстраивают вектор распределения на статической интерполяции, где наиболее часто встречающиеся семантические конструкции имеют больший вес. Другими словами, чем чаше в обучении встречается некоторое утверждение, тем он более истинное для LLMs (архитектурная уязвимость), но в обучении эксабайты медиа срачей и скама (обучающее несовершенство) всегда будут доминировать над очень ограниченной выборкой качественной научной, технической или художественной литературой.
Для решения этой проблемы есть множество механизмов, но они хороши в теории, а не на практике.
🔘Data Up-sampling, когда в корпусе данных датасеты делятся на домены (энциклопедии, научная литература, база кода, интернет статьи, форумный троллинг и т.д), где приоритет отдают качественным публикациям и надежным источникам.
Это хорошо в теории, на практике нет надежных механизмов сепарации эксабайт (в 1 миллион раз больше, чем терабайт), в итоге происходит смешение данных и доминирование токсичной информации, которой на многие порядки выше, чем качественной.
🔘Фильтрация на основе классификаторов с автоматической классификацией через специально натреннированную нейросеть (модель-цензор) для отсеивания откровенного скама, но не существует механизмов отсечения семантически качественных материалов, но концептуально пустых (здесь должен быть человек – эксперт, но на практике весь отбор данных почти полностью автоматический).
🔘Дедупликация – когда через специальные алгоритмы сжимаются миллионы репостов одного и того же скама в единичный экземпляр для устранения переполнения стэка данных дубликатами. Если этого не делать, уникальная научная статья будет иметь нулевой вес в сравнении с эксабайтами медиа скама.
Теория от практики отличается. Нет надежного механизма агрегации и сепарации качественных источников от некачественных, когда речь идет об обработке сотен эксабайт данных.
Как решение, брать за основу архитектуру модели с небольшим количеством параметров на 8-10 млрд и целенаправленно обучать на специализированных доменах (например, медицина, химия, физика, программирование и т.д.). На выходе получится скорее очень сухое, скучное справочное бюро без возможности междисциплинарного взаимодействия и полноценного размышления.
Универсальные модели (в открытом доступе) страдают «заражением» токсичными данными и искаженной «картиной мира» не только из-за ошибок развесовки и несовершенства алгоритма, но и по причине ошибочной сепарации данных и изначально некачественных источников.
Война на истощение - на кого поставить в битве ИИ?
Если среди американских производителей, я бы поставил на Google и объясню почему.
▪️ Ресурсы определяют долгосрочную устойчивость – Google имеет колоссальный операционный денежный поток в 150 млрд долларов в год, который может без потери стратегической устойчивости отгружать в «плантации ИИ фабрик», чего не может себе позволить OpenAI, Anthropic и xAI, сидящие на подсосе у венчурных инвесторов.
▪️ Мощнейшая инженерная школа DeepMind (практически все ведущие ученые в LLM являются выходцами из DeepMind). Работают медленнее и менее рисково, чем стартапы, но зато системно и последовательно.
▪️ Общемировая корпоративная и потребительская клиентская база в несколько миллиардов уникальных пользователей, удерживая через развитую сеть цифровых сервисов Google на всех уровнях (от развлекательных, поисковых, навигационных до бизнес сервисов) и слоях, платформах (мобильные, web, PC, серверные и IDE среды).
▪️ Full-stack платформа: собственное железо, которое выкупает само у себя по себестоимости (Google производит TPU Trillium / v6e) + имеет развитые облачные технологии Google Cloud Platform (GCP) + среда разработки Vertex AI и Google AI Studio с развитыми библиотеками и фреймфорками (Project IDX, Kotlin, Firebase Genkit и т.д.) + уникальный поисковый движок Google Search, платформу Youtube для сбора данных, дата-сетов и медиа трендов.
▪️ Индустриальный стандарт в WEB технологиях: архитектура Chromium, на котором базируются все современные веб браузеры и сам браузер Chrome с доминирующей рыночной долей, позволяющий отслеживать пользовательские предпочтения, вкусы, запросы и тренды во всех странах, всех возрастов и социальных групп (феноменальный дата сет).
▪️ Корпус данных и индексируемый набор данных последние 20 лет. Сейчас ни одна компания в мире не имеет настолько емкого и обширного доступа к текстовому и медиа контенту, как Google. Пока OpenAI третируют по судам из-за нелицензированного использованных данных многих веб-изданий, Google уже давно проиндексировали практически ВЕСЬ интернет и успешно кэшировали данные.
Практически все, что когда-либо было передано или написано в публичном пространстве – уже знает Google и хранит на специальных серверах. Теперь задача правильно все эти данные извлечь и разместить.
Эти уникальные характеристики и ресурсное обеспечение позволит Google доминировать (финансы, инженеры, платформа, датасеты, общемировая клиентская база и сквозная интеграция ИИ сервисов), здесь любой компании сложно перехватить лидерство.
Данные особо важны.
Gemini 3 обучалась, по моим оценкам (на основе данных обучения предыдущих моделей и аппроксимации с учетом расширенной мультимодальности), на 50-70 трлн токенов данных (большая часть видео-контент, где у Google абсолютное преимущество за счет Youtube) или почти 230 Терабайт чистого текста.
Какое количество качественных данных обучили в Gemini 3 – неизвестно, но сейчас вся мировая емкость интернета оценивается в следующей пропорции:
• Научная, техническая и специализированная литература всех дисциплин – 2 трлн токенов
• Научные статьи всех специальностей – 0.7 трлн токенов
• Мировая художественная литература всех жанров и времен – 3 трлн токенов
• Образовательная литература, методички – 1 трлн токенов
• Прочая литература, в том числе развлекательных – 3.5 трлн токенов среди относительно качественных
• Энциклопедии, справочники – 0.2 трлн токенов
• Код (в основном GitHub, StackOverflow с учетом техдокументации) – 2 трлн токенов среди относительно качественного кода
• Патенты, техническая документация, стандарты, законы – 2-2.5 трлн токенов.
Относительно качественный пласт данных оценивается около 15 трлн токенов за всю историю человечества, где качественных данных и источников не более 5-10%.
Цифровые новости, блоги и аналитические статьи около 40-45 трлн токенов, плюс еще 200-220 трлн емкость мировых соцсетей в публичной части, большая часть (свыше 99.8%) из которых скам, срач, копипасты, репосты, SEO-мусор.
Все это без медиа контента (графика, аудио, видео), только текст.
Photo unavailableShow in Telegram
❗️СРОЧНЫЙ НАБОР НА ОБУЧЕНИЕ ТРЕЙДИНГУ НА БИРЖЕ
Можно годами наращивать капитал на вкладах или долгосрочных инвестициях, чтобы через 10–15 лет цифры на счёте хоть как-то приумножились.
А можно изучить правила биржевой торговли и заработать 50-100 тысяч в уже в этом месяце
И не важно, падает рынок или растет.
Диана Маркина - трейдер и инвестор с 8-летним опытом только за 2024 год заработала более 3,5 млн ₽ на бирже, а сейчас делится своей системой абсолютно бесплатно.
И это не про везение или удачу.
Это про системную работу с чёткими правилами, где можно начать даже с 5 000 рублей и постепенно наращивать капитал.
Лучше о ней расскажут результаты её учеников:
Виталий А. заработал 177.000₽ за 2 недели к вложенным 🚀
Галина С. за 3 месяца активной торговли увеличила свой депозит с 321 344р до 748960р на сделках по газу.
Мария В. с депозита 100.000₽ заработала 34.000₽ чистыми за неделю.
За 2 дня на её бесплатном обучении вы получите:
— пошаговый алгоритм открытия и закрытия сделки
— на что смотреть и как анализировать графики, рынки.
— как оценивать и контролировать риски
— как справляться с собственными эмоциями во время торговли.
ВСЁ ЧЁТКО, ПОНЯТНО И БЕЗ ЛИШНЕЙ ВОДЫ
И самое главное - вас ждет практика на уникальном тренажере, где можно отточить навыки торговли и протестировать свою стратегию на реальных сделках, не потратив при этом ни рубля
Мест всего 14, поэтому возьмут не всех
➡️Успейте записаться бесплатно
Photo unavailableShow in Telegram
7 месяцев непрерывного безумия
В ноябре американский рынок закрылся вновь в положительной области – формально всего +0.13% по закрытию месяца и +0.08% по среднемесячным значениям.
Далее буду рассматривать только среднемесячные значения, чтобы учитывать производительность на все периоде с учетом всех циклов роста и падения, а не только под закрытие месяца.
С мая по ноябрь был завершен седьмой месяц непрерывного, оглушительного и ошеломляющего пампа – средняя производительность 3.29% в месяц по среднемесячным показателям. За всю историю сильнее было только три раза: в 2020 (3.67%), в 2009 (3.65%) и в 1980 (4.02%).
Сам по себе цикл из семи месяцев подряд роста – очень редкий (происходит 1 раз за 13 лет!), такое было в 2017 (с очень низкими темпами в 1.44%), в 2009 (3.65%), 1995 (2.54%), 1980 (4.04%), 1958 (3.13%) и 1954 (2.78%).
Соответственно, рост 7 месяцев с мая по ноябрь с производительностью выше 3.3% был только дважды в истории: в 2009 (восстановление после разгрома кризиса 2008 с обвалом на 55%) и 1980 (восстановление после 10-летия забвения с исключительно низкой базы исторически низких мультипликаторов).
В 2025 не было обвала, если не считать «шутку» в виде незначительной коррекции буквально за три дня (основной обвал был с 3 по 7 апреля за три торговых дня) в феврале-апреле после двух лет «адового пампа» в 2023-2024.
С точки зрения формальной и непредвзятой статистики, за всю историю существования рынка не было аналогичного пампа в относительном сравнении, изначально находясь на высокой базе (в 2009 и 1980 база под рост была низкой). Перед ростом в 2009 и 1980 был затяжной обвал на протяжении многих месяцев (2009) или лет (1980).
За последние 80 лет среднемесячный рост рынка более, чем на 2% был в условиях V-образного роста экономики и/или корпоративных прибылей (взаимосвязанные процессы), и/или при фискальном и монетарном стимулировании (профицит ликвидности), и/или при изначально низкой базе сравнения (после сильного предшествующего обвала).
Сейчас не выполняется ни одно из условий. Экономика, как и корпоративные финансы стагнируют (растут только избранные бигтехи по известным причинам и ранее показывал в цикле статей), избыточная ликвидность опустошена и денежные рынки уже трясет от локальных сквизов дефицита ликвидности (также ранее подробно показывал), а никакого обвала в начале 2025 не было (рост на изначально высокой базе).
В моменте в конце октября 2025 рынок превышал по капитализации 72 трлн vs 49.8 трлн на внутридневном дне 7 апреля, т.е. вздрючили более, чем на 22 трлн в моменте.
Для понимания пропорции. На пике пузыря доткомов вся совокупная капитализация рынка в моменте была около 15 трлн, что дает более 10 трлн (ближе к 11 трлн) за весь цикл роста с конца 1994 (или 5.5 лет).
За 7 месяцев сейчас создали 22 трлн vs менее 11 трлн в пузырь доткомов на протяжении 5.5 лет или в 19 раз (!!!) интенсивнее в расчете на месяц или в годовом выражении.
Да, цены изменились, инфляция и все такое (смотря как считать, от 2000 или от 1995-2000), но в сопоставимом сравнении разрыв на порядок будет.
По всем уровням и слоям мультипликаторов (корпоративные, денежные, макроэкономические, я на протяжении всего 2025 делал исчерпывающие обоснования перекупленности) сейчас перекупленность зашкаливает сильно выше самых агрессивных максимумов пузыря 2000 и 2021.
Интегральная текущая перекупленность рынка по комплексу индикаторов примерно в 1.7 раза относительно базы сравнения 2017-2019 и примерно вдвое от периода низких ставок 2010-2019.
Уровень вздрюченности рынка (собственный индикатор, объединяющий рыночный сентимент, волатильность, все слои мультипликаторов, технический, численный и семантический анализ) в ноябре составил 97 vs исторического максимума на уровне 100 в окт.25 (теоретический предел – 100), 90 в дек.24, 81 в дек.21 (пик предыдущего пузыря) и всего 72 на пике пузыря доткомов при норме 45 для растущего рынка.
На последней неделе ноября был установлен абсолютный рекорд в истории торгов по пампу с учетом уровня рынка (близости к хаям) и меры перекупленности.
Архитектурная уязвимость – как создаются и как «думают» нейросети?
Картина мира у нейросетей проявляется в весах и параметрах. Вес – это число с плавающей запятой, которое показывает силу связей в графе, а параметр – это одна ячейка памяти с числом.
Если модель имеет 70 млрд параметров, где каждый параметр занимает 2 байта памяти, соответственно, вес модели – около 140 гигабайт.
Картина мира - это совокупность весов (состояние модели), а архитектура - это алгоритм, который позволяет входным данным взаимодействовать с этими весами для получения результата.
На запрос пользователя «Подбери мне наилучший смартфон» система разбивает предложение на токены, далее на числовые идентификаторы, далее идентификатор, связанный со смартфоном, ассоциируется с начальным вектором этого слова, вшитым в память в момент обучения.
Модель заранее выучила, что вектор «смартфон» должен быть математически близок к вектору «телефон» и далек от вектора «банан».
Теперь вектор слова «смартфон» начинает путешествие через слои нейросети (через 32 или 96 слоев). На каждом слое происходит два главных процесса, где перемножаются веса. Вектор «смартфон» взаимодействует с вектором «наилучшие характеристики», поглощая в себя информацию с вектором, имеющим наибольшую вероятность.
Теперь этот обогащенный вектор идет в блок «памяти». Здесь происходит умножение матрицы на вектор. Каждая колонка матрицы – это детектор какого-то признака.
При умножении на веса активизируются те нейроны, которые связаны с флагманскими моделями в соответствии с запросами.
Теперь «обогащенный» вектор передает в последнюю матрицу (Unembedding Matrix), где в соответствии с конфигурацией «обогащенного» вектора выстраивается иерархия приоритетов для генерации токенов выходного ответа.
В чем уязвимость?
🔘Веса статичны и никогда не меняются до момента нового цикла предварительного обучения.
🔘Любая попытка дообучения ломает всю архитектуру модели – система в принципе не обучаемая на уровне архитектуры. Вместо накопления знаний, как у биологических организмов, происходит интерференция и замещение.
🔘В нейросети знания хранятся в распределенном виде. Факт «Париж — столица Франции» не записан в одном конкретном нейроне. Он «размазан» тонким слоем по миллионам параметров. В модель нельзя ни добавить, ни изъять точечные знания в отличия от обычной СУБД на SQL.
🔘Чудовищная неэффективность. На вопрос «2*2=?», чтобы сгенерировать всего один токен, вычислительное ядро должно активизировать все параметры в системе, включая квантовую физику, теорию струн и историю Древнего Рима и так каждый раз, создавая несоизмеримую нагрузку все на все вычислительные блоки. Сейчас решается через MoE (смесь экспертов).
🔘Отсутствие долгосрочной памяти и накопления опыта. Биологический мозг обладает синаптической пластичностью: связи меняются прямо в момент мыслительного процесса, у LLM долговременная память отсутствует и никакого накопления опыта не может быть на уровне архитектуры. Каждый раз с чистого листа.
🔘Проклятие размерности. Когда модель интерполирует (строит векторный путь) от понятия А к понятию Б, этот путь может случайно пролечь через эту «пустоту», где нет обучающих примеров в пространстве 4096 измерений. В этой пустоте поведение модели математически не определено, создавая неизбежные галлюцинации.
🔘Ошибки обучения – программирование связей между десятками миллиардов параметров практически всегда приводят к ошибкам интерпретации.
🔘Накопление ошибки точности. Сигнал проходит через десятки и сотни слоев. На каждом слое происходит умножение матриц. Микроскопическая ошибка округления (шум) на 1-м слое, умноженная на веса, может усилиться к 50-му слою и полностью исказить смысл вектора к конечному слою.
🔘Несовершенство алгоритмом компрессии информации. Десятки и сотни триллионов токенов сжимаются в десятки миллиардов параметров с компрессией 1:1000 и более. Уникальные факты, случайные числа, конкретные даты, цитаты, адреса. Это шум с точки зрения статистики, что приводит к несовершенству интерпретации.
Текущая архитектура LLM крайне уязвима, ресурснозатратна и неэффективна.
Почему неустранимы галлюцинации LLMs?
Галлюцинации в LLM неустранимы (в рамках текущей авторегрессионной архитектуры трансформеров), потому что они являются не «багом» (ошибкой), а неотъемлемой «фичей» (свойством) работы вероятностного генератора.
Галлюцинации – это фундаментальная, архитектурная основа LLMs, их можно снизить, но нельзя устранить.
Галлюцинация возникает тогда, когда неверная последовательность токенов имеет высокую статистическую вероятность (например, из-за похожести на другие тексты). Модель не может «остановиться и проверить», потому что у неё нет модуля верификации и самокоррекции, есть только модуль генерации.
В фазе предварительного обучения (pre-training) для LLMs формируется машинная «картина мира» через компрессию, сжатие экзабайт данных различной модальности в гигабайты или терабайты весов (параметров).
Невозможно восстановить исходный сигнал без потерь, если коэффициент сжатия составляет 100:1 или 1000:1.
Когда вы спрашиваете точный факт, модель не достает его из базы данных (её нет). Она пытается реконструировать (аппроксимировать) информацию из размытых слепков весов.
Галлюцинация - это артефакт реконструкции. Как JPEG добавляет «шум» на краях объектов, так и LLM добавляет вымышленные детали там, где информация в весах «размыта» или недостаточно представлена. Устранить это можно только отказавшись от сжатия, но тогда модель перестанет быть генеративной.
Механизм, позволяющий модели галлюцинировать, – это тот же самый механизм, который позволяет ей быть креативной и обобщать.
Если из LLMs изъять «механизм бредогенерации», LLMs превратится в справочное бюро без возможности контекстного развертывания.
Не существует лимита галлюцинаций, LLMs никогда не остановится в потоке бреда, т.к. нет механизма обратной связи. Человек проверяет или расщепляет свои галлюцинации и заблуждения об объективную реальность через обратную связь с окружающей действительностью, через органы чувств и физический опыт.
LLM не имеет выхода в реальность. Для неё «реальность» — это то, что статистически вероятно в тексте. У неё нет внешнего референса для заземления и верификатора, чтобы сверить свой прогноз.
Точность генерации LLMs тем выше, чем выше экспозиция данных в обучающей выборке. Другими словами, чем чаще представлен факт, процесс или событие в обучающих данных (популярные факты, которые повторяются миллиарды раз: «Небо чаще всего голубое, а не красное», «2+2=4» и т.д.)
Но как только запрос касается редких знаний (специфический научный факт, малоизвестные события, альтернативный взгляд на события, биографии малоизвестного человека и т.д.), плотность данных падает.
• В этой зоне модель начинает заполнять пробелы наиболее вероятными шаблонами.
• Поскольку архитектура требует выдать ответ (complete the sequence), она вынуждена выдумать правдоподобное завершение, вместо того чтобы сказать «я не знаю» (если её специально жестко не натренировали на отказ, что тоже не всегда работает).
В LLMs относительно достоверно то, что имеет наибольшее представление в обучающих данных, но по мере снижения плотности данных – растут галлюцинации.
🔘Репликация мусора и конфликт распределения данных. Изначально LLMs обучались на человеческих данных, которые в своей основе далеки от концептуальной чистоты, нашпигованные заблуждениями, ложными утверждениями и идиотизмом, где сам человек часто не может определить реальность от вымысла.
🔘Запрет на «отказ от ответа». Почти все модели в посткалибровке обучаются быть полезными, поэтому «отрицательный ответ или отказ от ответа» не вознаграждается, что приводит к генерации ответа даже там, где ответа быть не может (LLM не может эффективно отказывать, т.к «сама не знает, что она не знает»).
Снижение галлюцинаций происходит либо на этапе RLHF, где инженерами вручную и очень избирательно устанавливаются «правильные» веса и факты, либо в процессе обращения к внешним источникам (интернет, базы данных, внешние источники данных, внешние верификаторы).
Руководитель строительства — это не просто надсмотрщик на объекте. Это человек, от которого зависит, будет ли сдан дом в срок и не развалится ли он через год.
Кто сам руководил хотя бы одним объектом, знает: тут тебе и графики, и сметы, и подрядчики, и технадзор, и заказчик с претензиями. Ошибся в одном — встал весь процесс.
Чтобы держать проект под контролем, нужна система. И понимание, как все должно работать — от планирования до сдачи объекта.
Для этого есть курс «Директор по строительству» от Академии Eduson. Он помогает не вариться в хаосе, а управлять процессами с головой.
Кому подойдет:
— специалисту с опытом в строительстве или прорабу, который хочет двигаться вверх
— руководителю проекта, который тянет все на себе
— смежнику, который хочет перейти в сферу строительства
— собственнику, который хочет роста прибыли и прогнозируемый результат
— 291 урок и 23 реальных кейса
— шаблоны и чек-листы, которые удобно использовать в работе, чтобы экономить время
— преподаватели из ПИК, ГК «Самолет» и DNS Development
— 365 дней поддержки личного куратора, а не чаты на 1000 человек
Приятный бонус: курс лицензирован, можно вернуть 13% через налоговый вычет. А если курс не подойдет, его можно обменять на аналогичный по стоимости в течение полугода.
Оставьте заявку с промокодом SPYDELL — получите скидку 65% и второй курс в подарок. Если хотите роста прибыли и прогнозируемый результат — вам сюда.
Реклама. ООО "Эдюсон", ИНН 7729779476, erid:2W5zFJbQHQt
Критерий истинности в LLMs
Важнейшая тема, которую несколько раз затрагивал, но не раскрывал подробно, буду устранять пробел в повествовании.
LLM - генератор токенов на статистическом распределении, т.е. «критерием истинности» в LLM является наиболее вероятный вектор распределения, где истина для машины – это не более, чем статистически доминирующий паттерн.
Критерий истинности для LLMs и критерий истинности для людей – это две разные сущности, которые часто не совпадают, хотя в большинстве случаев коррелируют.
В каждый момент времени для генерации очередного токена архитектура нейросетей выстроена таким образом, что всегда ищется вектор распределения, который статистически наиболее ожидаем в данном контексте через динамическую балансировку вероятностями.
Это означает, что контекст имеет значение, а из этого вытекает, что изначально неверный, ошибочный путь (ранее сформированная последовательность токенов) непрерывно экстраполируется в будущем (но об этом в других материалах), наследуя ошибки из-за отсутствия встроенного механизма самокоррекции.
Говоря математически, «Истина» в LLM – это математический оптимум функции вероятности в конкретном локальном контексте.
Для нейросети «правильный» ответ – это не тот, который соответствует физической реальности, а тот, который обладает наименьшей перплексией (наименьший статистическим выбросом) и наибольшим весом в финальном векторе распределения.
LLM – это машина, оптимизирующая когерентность (связность), а не соответствие фактам. Связи с реальностью в этом нет, есть только связь с накопленной статистикой прошлых текстов.
Как перевести на человеческий язык?
Если набор токенов «Париж» имеет вероятность 0.99 после выражения «Столица Франции — ...», это для модели абсолютная истина, но, если модуль обучать на контексте средневековья, где Земля – плоская, Солнце вращается вокруг Земли и еще сотни примеров антинаучных заблуждений, для LLM – истиной будет то, что Земля – плоская.
Это означает, что для LLMs правдой будет то, что встречается чаще всего. Соответственно, любой популярный нарратив в сети воспринимается, как истина вне зависимости от степени достоверности.
Из этого напрямую вытекает, что LLM усредняет и обобщает нарративы, а не ищет истину. Понятие «истина» математически не вшито в архитектуру LLMs
Чтобы добавить вариативность ответов, имитируя творчество и креатив, в архитектуру LLMs встроен цифровой шум в виде параметра Temperature, создавая искусственный вектор распределения, но не меняя фундаментального принципа.
Архитектурно (почти все LLMs построены по единому принципу) LLMs оптимизированы генерировать текст, который выглядит правильным для человека, нравится человеку, пытаясь вызвать положительный фидбэк.
• Популярные заблуждения (мифы, городские легенды, упрощения) часто имеют очень стройную, повторяющуюся структуру повествования.
• Сложная научная истина часто контринтуитивна, редко встречается и требует специфической терминологии.
Для исправления встроенного бага в систему существует концепция постобучения в виде RLHF (Reinforcement Learning from Human Feedback), т.е. обучение с учителем/подкреплением.
Иногда в процессе RLHF инженеры вручную правят популярные заблуждения и теории заговора к контринтуитивной и неприятной истине (с человеческой точки зрения).
Однако, зачастую, RLHF не учит модель новым фактам, а учит модель скрывать или приоритизировать уже имеющиеся знания в зависимости от того, что считается «хорошим» ответом по версии разработчиков. LLMs – по сути, тонкая настройка (fine-tuning) уже сформированной нейронной структуры.
RLHF учит, что можно говорить, а что нельзя и главное – как говорить (тональность, структура повествования, форматирование ответа, глубина раскрытия и т.д.), где навешиваются фильтры безопасности, цензуры, полезности. Именно на этот этапе LLMs учат «угождать» клиентам и быть полезным в задачах.
В процессе RLHF модель часто учится, что «хороший ответ» — это тот, который подтверждает убеждения пользователя, а не тот, который является объективной истиной.
Фундаментальные ограничения современных LLMs (продолжение)
В коллаборации с ведущими учеными в LLMs (Ян Лекун и Илья Суцкевер) и на основе собственных концептуальных прототипов (1 и 2).
🔘Нынешний хайп вокруг «AGI - универсального интеллекта», который якобы возникнет сам собой из триллионов транзисторов - это маркетинговый миф. AGI не достигается методом масштабирования, нужна другая архитектура.
🔘Качественные данные конечны. Стратегия «просто добавить больше данных» (Scaling Era – куда бигтехи инвестируют сотни миллиардов) уперлась в потолок доступного человеческого контента.
Модели выходят на плато по эффективности, дальше неизбежная деградация в связи с «заражением» моделей синтетическими данными, сгенерированными нейросетями (обучение на синтетических данных).
Обучение моделей на данных, сгенерированных другими моделями, приводит к потере «хвостов распределения» (редких, но важных знаний) и усреднению реальности. Это математически неизбежная деградация дисперсии, ведущая к «цифровому инцесту» и вшитыми в процесс обучения галлюцинациям.
🔘Убывающая отдача инвестиций. Каждая следующая итерация (после экспоненциального роста в начале) требует несоизмеримо больше ресурсов ради минимального прироста качества. В 2026 году этот застой станет очевидным, кульминация в следующем году.
🔘Дальнейший прогресс только через физический мир. Текст имеет низкую пропускную способность по сравнению с визуальным опытом. LLM изучают статистические корреляции в описаниях мира, а не динамические связи физической реальности.
🔘Современные модели не являются ИИ в широком смысле, т.к. не обладают механизмом самообучения, критерием истинности и необходимым пулом характеристик, проявляющим наличие интеллекта (чисто формально, свыше 90% человеческой популяции также не обладают интеллектом).
🔘Текущие LLM технически можно обвязать внешними «агентами», планировщиками, инструментами и заставить выглядеть более разумными. Но ядро остаётся тем же: статистический предсказатель последовательностей, а не миро-ориентированный разум.
🔘Необходим переход от статических корреляций к казуальным и причинно-следственным связям в условиях динамического мира с неустойчивыми и противоречивыми связями, не поддающимися формализации (переход от статики с замороженными весами к непрерывному дообучению).
🔘Необходима модификация алгоритмов с авторегрессии (генерации следующего токена) к абстрактной симуляции мира и от пассивного наблюдения к активному взаимодействую с окружающим пространством.
🔘Проблема современный нейросетей в том, что нет динамического создания новых связей в ответ на опыт. Нет цикла «действие → мир → наблюдение → обновление».
Отсутствие цикла «действие → ошибка → самокоррекция весов» в реальном времени с бесконечным циклом повторов и коррекций ошибок делает текущие модели «умными идиотами», запертыми в статической вселенной своих обучающих данных.
🔘Концепция ИИ агентов неработоспособна. Почему? Без умения эффективно дробить задачи на подмодули и удерживать иерархию приоритетов, без наличия критерия истинности и без функционала самокоррекции, любой автономный агент неизбежно уйдут по неверной траектории в процессе итерации последовательности шагов.
Необходимо помнить про фундаментальные ограничения памяти и контекстного окна у LLMs, проблема стабильности и качества выходных токенов при расширении контекстного окна (склонность к галлюцинациям при перегруженной памяти.
LLM-ядро обеспечивает мощную аппроксимацию распределений и извлечение закономерностей, но без внешнего контура проверки/памяти/действий оно не даёт устойчивых свойств агентности: долговременных целей, причинной идентификации, надёжной самокоррекции.
Все это ставит текущую концепцию развитии ИИ крайне уязвимой с точки зрения способности возврата денежного потока – непропорционально много ресурсов в слишком неустойчивое равновесии и низкий прирост производительности.
На самом деле, восторженная презентация последний моделей оказалась не настолько блестящей, как было показано на рекламных слайдах. Все актуальные проблемы остались, скачка интеллекта не произошло.
Фундаментальные ограничения современных LLMs
Интересное интервью Ильи Суцкевера (бывшего главного инженера OpenAI, а ныне основателя Safe Superintelligence). Это его первое публичное выступление с декабря 2024, но учитывая, что он является архитектором современного ядра LLM, его взгляд ценен.
Идеи Ильи практически полностью пересекаются с моими концепциями, высказанными в нескольких циклах материалов по ИИ в этом году, поэтому перескажу, по сути, собственные идеи словами Ильи, но с более научным обрамлением.
Главный тезис Ильи заключается в том, что период с 2012 по 2020 годы был «эпохой исследований», которая сменилась «эпохой масштабирования» (2020–2025), когда доминировал простой рецепт: больше данных + больше вычислений = лучше результат.
Дополню от себя: это выражается в экспоненциальном росте капитальных расходов, достигающих 400 млрд в 2025 среди бигтехов США и зеркалировании выручки у производителей оборудования для развертывания ИИ.
• Предел данных: предварительное обучение (pre-training) упирается в конечность доступных данных. Простое увеличение масштаба модели больше не дает прежнего качественного скачка.
• Смена парадигмы: если раньше вопрос «на каких данных учить?» не стоял (ответ был «на всех»), то теперь, особенно в RL (обучении с подкреплением), отбор данных и создание среды становятся критическими задачами.
• Возврат к исследованиям: индустрия снова входит в фазу, где прогресс зависит не столько от размера кластера, сколько от новых идей и алгоритмов.
Чрезвычайно неэффективное использование вычислительных мощностей:
🔘Современная архитектура трансформеров (Илья входил в число ключевых инженеров, которые преобразовали прототип архитектуры в текущую конфигурацию LLMs) была создана в 2017 на всего двух чипах в эквиваленте Blackwell, сейчас ИИ фабрики требуют миллионов чипов.
🔘Современные модели, несмотря на огромные объемы обучения, обобщают знания значительно хуже людей – им требуются миллионы и миллиарды примеров, чтобы совершать элементарные операции, где у людей уходят часы (10 часов практики, чтобы научиться водить машину у человека на базовом уровни и десятки тысяч часов обучающих видео у моделей).
🔘Pre-training – это статистическая проекция мира, созданная людьми. Модель не учится на реальности, она учится на текстовой проекции реальности, созданной людьми. Pre-training дает широту знаний, но не дает глубины физического понимания причинно-следственных связей. Поэтому модели галлюцинируют – у них нет «заземления» в реальности, только в статистике слов.
🔘Чрезвычайная узконаправленность – LLMs демонстрируют выдающиеся результаты в формализованных и натреннированных задачах, но небольшое отклонение в сторону – модель сразу рассыпается, эффективность снижается (человек способен обеспечивать более эффективный трансфер опыта из одной дисциплины в другую, а LLM – нет).
🔘Имитация компетентности – компании «надрачивают» бенчмарки, чтобы казаться сильнее, создавая инфоповоды (подтверждает мои опасения), бенчмарки больше не показательны. Это создает иллюзию интеллекта, которая рассыпается при смене контекста. «Ум» в тестах не всегда транслируется в надежность в реальных задачах.
🔘Нет функции ценности по интерпретации Ильи. Для LLMs нужно дойти до конца итерации, чтобы оценить результат, тогда как человек за счет интуиций и композиции эмоций может заранее понимать неправильный путь решения.
Например, чувство дискомфорта или неуверенности возникает до завершения задачи, позволяя корректировать путь.
Если модель думала 100 или 1000 шагов и в конце ошиблась, весь этот вычислительный путь часто отбрасывается или маркируется как негативный, где огромная энергия тратится впустую, а человек намного раньше (в процессе решения) понимает ошибочность пути.
LLM могут генерировать правдоподобный текст, но не обладают внутренней «интуицией» о правильности направления рассуждений, пока не получат внешний фидбек.
Основное концептуальное ядро в интервью – уже уперлись в потолок, дальнейшее масштабирование неэффективно, необходимо снова возвращаться к алгоритмам. Продолжение следует…
Мало кто представляет, что на самом деле ждет Россию и мир в 2026...
Решения, которые тянулись годами — будут приняты в ближайшие недели. И снова многие будут очень удивлены.
Чтобы не быть в их числе — лучше читать источники, проверенные временем. Хороший пример — канал Мультипликатор.
Его автор уже давно рассказал про план Трампа, точно предсказал начало и логику переговоров, стабильно давал верные прогнозы по доллару и реакции элит.
А сейчас он объясняет, какие события ждут россиян уже к Новому году и какие сценарии обсуждаются в кулуарах...
Подпишитесь на этот ценный канал, чтобы тоже знать об этом и быть готовым заранее!
Ухудшение качества обслуживания ипотеки в России
Устойчивость ипотечного рынка в России обуславливается исключительно действиями государства в разрезе субсидируемой ипотеки.
В 2025 году средняя доля льготного ИЖК составила рекордные 84% в структуре выдачи ипотеки vs 73% в 2024, 62% в 2023, 48% в 2022, 29% в 2020-2021 и всего 5% в 2019 до введения программ льготного ИЖК.
Льготная ипотека по факту искажается ценообразование, приводя к снижению доступности жилья.
С 2017 по 2019, когда не было льготной ипотеки отношение средних цен в новостройках к вторичному жилью составило 1.09 по Росстату и 1.2 по Сбериндексу, в 2020-2021, когда начали интегрировать льготную ИЖК, но не так агрессивно с 2023, первичка «разъехалась» в ценах с вторичкой до 1.22 по Росстату и 1.31 по Сбериндексу.
В 2022-2023 расширение спреда продолжилось до 1.34 и 1.47 соответственно, а с 2024 уже 1.57 и 1.51, тогда как в 3кв25 – 1.61 и 1.51 соответственно.
Таким образом, на конец 2025 в сравнении с 2017-2019 дифференциал цен вырос в 1.48 раза по Росстату и 1.26 раза по Сбериндексу.
По индексу доступности по первичному рынку в 2017-2019 коэффициент был 34.1, а по вторичному рынку – 33.1, а на сен.25 коэффициент снизился до 16.5 по ипотеке для первичного рынка и 19.6 для вторичного рынка. Здесь двойной удар в виде роста цен выше темпов роста доходов при рекордно высоких ставках по ипотеке.
В отчете Банка России были интересные данные, что продажи строящегося жилья за 10 месяцев 2025 в стоимостном выражении составили 3.8 трлн руб и сопоставимы с показателями предыдущих 2 лет, когда наблюдался ажиотажный спрос (3.8–3.9 трлн за 10 месяцев в 2023–2024), т.е. в годом выражении продажи первички доходят до 4.7-5 трлн руб.
Ухудшается платежная дисциплина по ипотеке. Общее количество ипотечных кредитов с просрочкой более 90 дней впервые достигла 1% в 3кв25 vs 0.86% в 2кв25 и 0.7% в 1кв25, в 2024 – в среднем 0.38% с тенденцией на ежеквартальное увеличение, а в 2023 – 0.17%.
По льготной массовой ипотеке просрочки выше (1.76% - максимум с 2022) по сравнению с рыночной ипотекой (1.43% - также максимум с 2022).
Ухудшается обслуживание кредитов, выданных в период ажиотажного спроса перед закрытием массовой льготной программы, когда стандарты выдачи были ослаблены.
Ухудшение ситуации с рыночной ипотекой. Заемщики, взявшие кредиты в период пиковых ставок, испытывают повышенную долговую нагрузку.
Банк России с 2023 года также, как и для необеспеченного кредитования, ужесточает нормативные требования для ипотеки.
• Доля кредитов с ПДН более 80% в сегменте строящегося жилья (ДДУ) в 3кв25 снизилась до 3% против 6% годом ранее (в 2023 г. – порядка 46%).
• В сегменте готового жилья доля таких кредитов составила 9% (в 2023 – около 48%).
• Выдачи с низким первоначальным взносом (менее 20%) с начала 2025 в сегменте строящегося жилья составляли менее 2% (в 2023 – более 60%), а в сегменте готового жилья – менее 13% (в 2023 – свыше 45%).
Действие МПН позволило банкам сформировать макропруденциальный буфер по ипотеке в размере 1.5% от портфеля за вычетом резервов на возможные потери на 01.10.2025, но с начала 2025 трижды смягчал требования в связи с наличие буфера капитала и снижения доли рисковых кредитов в выдачи.
В отличие от потребительских кредитов, где идет взрывное ухудшение качества кредитов, сопоставимое с кризисом 2009, по ИЖК все относительно стабильно, но ползучее ухудшение присутствует.
Объем начала строительства жилья составил 4.11 млн кв.м в окт.25 (максимум с дек.24, тогда как минимум был в июл.25 - 3.09 млн кв.м), за 10м25 - 33.8 млн кв.м vs 42.4 млн кв.м за 10м24, 38.9 млн кв.м за 10м23, 36 млн кв.м за 10м22.
Оценка качества кредитного портфеля физлиц в России
По необеспеченным потребительским кредитам фиксируется взрывное ухудшение качества кредитов, сопоставимое с кризисом 2009 и 2015-2016.
Идет 13 месяц непрерывного ухудшения качества кредитов, достигая 12.9% на сен.25 vs 7.9% в сен.24, за 9м25 в среднем 11.5%, в 2024 – 8%, 2023 – 8.4%, 2021 – 8.4%, а в кризис 2015-2016 на максимуме было 16.7% в моменте, а в среднем 15.5% за 2015-2016, тогда как в кризис 2009 было зафиксировано 12.9%.
Объем реструктуризаций достигает 3.6% (максимум с 2015) от портфеля по средней за 6м vs 1.7% в 2024, 1.4% в 2023 и всего 1.3% в 2022.
Аномально высокая доля «трудноизвлекаемых» кредитов с просрочкой более 80 дней – 3.9% в 3кв25, за последние 6м – 4.3%, тогда как нормальный показатель составляет 0.4% до 2022, а до цикла ужесточения в 2023 было 0.8% и около 2% в 2023-2024 до эскалации ужесточения в конце 2024.
Ужесточение стандартов выдачи и обслуживания необеспеченных кредитов и стандартных лимитов по кредитным картам приводит к тому, что население перемещается в микрозаймы, плюс на этом фоне растут микрозаймы у маркетплейсов и у многих банков в рамках льготных программ с беспроцентным периодом. Банки наращивают долю в МФО до 41.1% vs 33.3% годом ранее.
Объем микрозаймов вырос на 40% за год, достигая 4.6% в совокупном портфеле необеспеченных кредитов.
Для ограничения рисков регуляторного арбитража и снижения рисков перетока Банк России устанавливает для банков и МФО единые ограничения в рамках МПЛ + корректировки отсечения по доходам заемщика.
Банк России последовательно с 2023 года ужесточал нормативы и требования по выдачи кредитов, что привело к радикальному (в несколько раз) снижению доли кредитов, выданных заемщикам с высокой долговой нагрузкой. Например, если в 2020-2022 почти треть кредитов выдавалась заемщикам с ПДН 80+, теперь таких только 2%, а доля кредитов для перегруженных долгами заемщиков снизилась с 38% на пике в 2022 до 10% сейчас.
Эти меры позволили избежать неконтролируемой эскалации невозвратов на фоне ухудшения ситуации с денежными потоками у населения при высокой стоимости обслуживания долга.
Благодаря действию макропруденциальных надбавок на сен.25 был сформирован значительный макропруденциальный буфер капитала – 7.1% (в начале 2023 было около 1%, а размер макропруденциального буфера вырос в 8 раз с 100 млрд в начале 2023 до 800 млрд за последние 12м) от портфеля необеспеченных потребительских кредитов за вычетом резервов на возможные потери.
Достаточность капитала находится на высоком уровне – 12.9% при относительно высокой прибыли, чем удается абсорбировать кредитные потери без ущерба для кредитования экономики.
Любопытно, что при всем этом коэффициент обслуживания долга по кредитам физлиц по расчетам Банка России, снизился до 9.4% - минимум с начала 2019 года, а максимум был в 1кв22 на уровне 12.1%
В структуре коэффициент автокредиты – 1% (максимум за все время), ипотека – 2% vs 2.5% на пике в 1кв22, кредитные карты – 2.9% vs 3.1% на пике в 1кв25, кредиты наличными – 3.5% vs 6.3% на максимуме.
Этот индикатор отражает, какую часть своих совокупных доходов граждане в среднем тратят на платежи по кредитам. Снижение связано с сильнейшим замедлением кредитования за 10 лет на фоне интенсивного роста номинальных доходов.
В целом, ситуация контролируема, несмотря на рост просрочек по необеспеченным кредитам, за счет накопленного буфера устойчивости.
Оценка качества корпоративного кредитования в России и тенденции в кредитовании
При общем ухудшении макроэкономического фона логично ожидать ухудшение качества кредитного портфеля.
Наибольший по объему портфель плохих кредитов (красная и проблемная зоны) сосредоточен в строительной и нефтегазовой отраслях, но остается стабильным – это старые проблемные кредиты. Рост плохих кредитов в 2-3кв25 наблюдался у металлургических (+4 п.п) и транспортных (+2 п.п) компаний.
Наибольший объем реструктуризаций пришелся на компании из угольной отрасли, обрабатывающей промышленности, строительства и торговли.
В апреле-сентябре 2025 российские банки одобрили реструктуризацию кредитов для крупных компаний на сумму 8.32 трлн руб, для средних компаний – 1.98 трлн руб, а для малых и микропредприятий – 0.37 трлн руб.
Банк России не приводит статистику реструктуризаций в 2024 году и ранее, но в сопоставлении краткосрочной тенденции, реструктуризация средних и крупных компаний волатильна, но плюс-минус стабильна последние полгода, тогда как по микропредприятиям и малым компаниям рост вдвое за последние 2 месяца в сравнении с апрелем-маем.
Интегрально по всем юрлицам, за последние 2 месяца реструктуризируется 1.64% от кредитного портфеля в месячном выражении vs 2.1% в 2кв25 за исключением отдельных крупных реструктуризаций (снижение – это эффект крупных компаний).
Банк России способствует реструктуризации проблемных кредитов ИП и малого бизнеса.
Для поддержки заемщиков – юридических лиц и индивидуальных предпринимателей, столкнувшихся с временными трудностями по обслуживанию долга, Банк России в мае 2025 рекомендовал банкам удовлетворять заявления о реструктуризации долга таких заемщиков. Для того чтобы банки охотнее шли навстречу заемщикам, регулятор временно смягчил требования к резервам по реструктурированным ссудам заемщиков, по которым есть высокая вероятность восстановления их финансового положения.Зона риска – весь малый и средний бизнес России, где идет интенсивное ухудшение качества кредитного портфеля, выраженного в виде уровня дефолтности субъектов МСП по предоставленным кредитам по 12м. • Микропредприятия: 9.9% проблемных кредитов в сен.25, за 9м25 – 9.3%, 2024 – 6%, 2023 – 4.6%, 2022 – 3.8% • Малые компании: 4.7% в сен.25, за 9м25 – 4.1%, 2024 – 3.1%, 2023 – 2.7%, 2022 – 2.3% • Средние компании: 3.6% в сен.25, за 9м25 – 3.3%, 2024 – 2.6%, 2023 – 2.5%. 2022 – 2.1%. По крупным компаниям данные не могут быть показательны из-за специфики обслуживания кредитного портфеля, как сам признается Банк России:
Доля кредитов IV–V категорий качества (плохих и очень плохих) в сегменте крупного бизнеса с апреля по сентябрь 2025 почти не изменилась за счет вновь предоставляемых крупных кредитов, а также за счет возможности не ухудшать категорию качества по реструктурируемым кредитам заемщикам, если банки ожидают улучшения их финансового положения в среднесрочной перспективе. Плохие кредиты достаточно покрыты резервами: в среднем за последние 10 лет уровень покрытия составлял 68%, в 2025 – 72%.Эту особенности я подмечал еще в 2023-2024, когда через реструктуризацию «ретушируется» качество кредитного портфеля – это делается по крупным кредитным лотам, тогда как МСП не задействуют этот «схематоз» и там взрывное ухудшение. Также крупные компании под воздействием специфичных льготных кредитов или под госгарантии (особенно среди ВПК и системообразующих отраслей), т.е. там сложно оценить качества кредитного портфеля. По валютным кредитам. Особого смещения доли валютного фондирования нет, хотя наблюдается тенденция роста спроса на валютные кредиты последние 3 месяца. Текущая доля валютных кредитов и облигаций с исключением валютной переоценки составляет 12.6%, за 9м25 – 12.4%, в 2024 – 15%, в 2023 – 17.5%, в 2022 – 23.5%, а в 2021 – 28.2%. Однако, интенсивно растет фондирование в валютных облигациях – 1 трлн руб на сен.25, где весь прирост был с мая по сентябрь, что вдвое выше, чем в 2024 и на порядок выше, чем в 2023. Зона риска сейчас - малый и средний бизнес, + отдельные компании среди крупных (уголь, девелоперы).
Photo unavailableShow in Telegram
Существенное ухудшение долговой нагрузки российских компаний
Главная проблема – снижение прибыльности на фоне экспоненциально растущих долгов и процентных расходов.
Критическая ситуация у угольных компаний, где способность обслуживания обязательств перед кредиторами (ICR или отношение EBITDA к процентным расходам) впервые с 2009 закрепляется ниже 1, на 1П25 коэффициент ICR составил 0.95 vs 1.32 в 2024 и 4.28 в 2023 при этом долговая нагрузка (чистый долг к процентным расходам) достигла запредельных показателей: 6.69 в 1П25 vs 5.07 в 2024 и 2.78 в 2023 в соответствии с расчетами Банка России.
В отрасли сохраняется сложная ситуация, прежде всего на фоне падения мировых цен на коксующийся и энергетический уголь, снижения спроса на сталь в РФ на 15% г/г в 1П25, введения пошлин со стороны Китая на импорт российского коксующегося угля в размере 6% с 2025 и внешних ограничений, которые заставляют перенаправлять часть экспортных поставок внутренним потребителям.
Значение ICR менее 1 является критическим, в этом случае компания не может полноценно обслуживать свои обязательства. При значении коэффициента от 1 до 3 компания имеет повышенную процентную нагрузку и при росте процентных расходов или снижении операционных результатов может испытывать сложности с обслуживанием долга. Чем ниже ICR и чем выше долговая нагрузка по представленным коэффициентам – тем хуже.
▪️Транспорт сильно перегружен долгами на фоне низкой маржинальности: ICR составил 2.66 vs 3.63 в 2024 и 5.64 в 2023, а долговая нагрузка увеличилась до 2.52 vs 2.26 в 2024 и 1.74 в 2023.
За 9м25 общая погрузка по всем видам транспорта сократилась на 0.2% г/г до 6896 млн тонн. Тарифы на перевозки автотранспортом при этом выросли на 7.3% г/г на фоне нехватки водителей и удорожания лизинга. Погрузка на сети РЖД за 10м25 снизилась на 6% г/г до 927 млн т, из за замедления активности в добывающих отраслях.
▪️Электроэнергетика также испытывает проблемы: ICR снизился до 2.75 в 1П25 vs 3.62 в 2024 и 6.46 в 2023, тогда как долговая нагрузка выросла до 2.27 в 1П25 vs 2.15 в 2024 и 1.47 в 2023.
▪️Производители удобрений: ICR снизился до 3.42 в 1П25 vs 4.08 в 2024 и 8.44 в 2023 при росте поддержании высокой долговой нагрузки на уровне 2.25 в 1П25 vs 2.34 в 2024 и 1.75 в 2023, но, справедливости ради, производители удобрений единственные среди системообразующих отраслей, которым удалось сократить немного долговую нагрузку.
Среди ключевых отраслей российской экономики:
▪️Металлургия: ICR снизился до 3.84 в 1П25 vs 4.79 в 2024 и 8.49 в 2023, а долговая нагрузка немного увеличилась до 1.49 в 1П25 vs 1.47 в 2024 и 1.08 в 2023.
Выпуск стали за 9м25 снизился на 4.6% г/г на фоне резкого снижения спроса со стороны ключевых клиентов, где за 9м25 снижение продаж новых крупнотоннажных или тяжелых грузовиков составило 57% г/г, а сокращение запусков новых проектов жилого строительства за 10м25 составило 15% г/г.
▪️Нефтегаз: ICR снизился до 4.4 в 1П25 vs 6.1 в 2024 и 7.2 в 2023 на фоне роста долговой нагрузки до 1.44 в 1П25 vs 1.21 в 2024 и 1.05 в 2023.
Здесь все понятно – удорожание логистики и страхования, рост внутренних издержек, крепкий рубль, низкие мировые цены на нефть и газ, расширение спрэдов, расширение списка теневого флота до 560 судов, снижение потолка на нефть с 60 до 47.6, запрет на покупку нефти из третьих стран, где участвовали российские поставки, SDN бан для Лукойла и Роснефти и т.д.
Ухудшение по нефтегазу продолжится.
В эти расчеты включены 89 крупнейших российских компаний с консолидированной выручкой 78 трлн руб, долгом 43.7 трлн (44% от всего долга российских компаний).
67% выборки приходится на компании, где ICR ниже 3 (годом ранее таких было 42%), а критическая ситуация с ICR ниже 1 у 8.1% от всей выборки (годом ранее – 5.1%).
Как видно, наблюдается фронтальное ухудшение по всем ключевым секторам, где одновременно действует конвергенция всех негативных факторов: санкционные ограничения, сложная конъюнктура, рост издержек и налогов, что приводит к снижению прибыльности на фоне роста долга и высокой стоимости обслуживания.
🚨 95% внедрений ИИ проваливаются. Почему это происходит и как не оказаться среди них?
Статистика с полей внедрения ИИ продолжает поражать неподготовленные умы. MIT (Massachusetts Institute of Technology) пишет, что только 5% инициатив приносят измеримую пользу. Benedict Evans тушат огонь бензином добавляют: 50% (половина, Карл!) компаний просто бросает попытки.
Почему?
Большинство компаний искренне верит, что для успеха достаточно подключить LLM. Помните Незнайку на Луне? Сделаем ракету 🚀– полетим на Марс! Ну или выберем модель, подключим API, сделаем агента – и Великий Волшебный ИИ всё сделает за нас.
А на практике всё ломается не на стороне моделей, а на:
* сопротивлении людей (ИИ заберёт мою работу! 😨)
* неподготовленном ИТ-ландшафте
* бардаке в процессах
Другими словами, дело не в технологиях. Модели уже достаточно зрелые. Они работают. Но они не решают базовые вопросы: какую задачу выбрать? как встроить ИИ в процессы? что делать с людьми? как посчитать эффект? кто будет этим управлять? что делать дальше?
Что дальше?
Чтобы выйти из категории «95% провалов» и попасть в те самые 5% компаний, которые действительно получают бизнес-ценность от ИИ, нужен другой подход. Именно вокруг этого построена концепция AIM и роль AI Business Partner (AIBP) – лидера, который связывает людей, процессы и технологии в единую рабочую систему.
Именно этой теме команда создателей AIM посвятит открытый вебинар, который пройдет 2 декабря в 19:00 (МСК).
На вебинаре мы разберем:
* Почему внедрения ИИ проваливаются – на конкретных примерах из реальных проектов.
* Как выглядит работающий подход к внедрению ИИ в процессы на основе методологии AIM.
* Кто такой AIBP, где его взять и как им стать.
Если вам важно понимать не только технологии, но и то, как сделать ИИ рабочим инструментом для бизнеса – этот вебинар точно для вас. 💡
👉 Регистрация и подробности в боте: https://t.me/aim_education_bot
--
Реклама. ИП Новикова А.С., ИНН: 262810436353, erid:2SDnjeEJSDu
🤡 102👍 88❤ 28😁 10🤣 10🔥 7👎 5🤔 4💯 3🤬 2
Дефицит бюджета США вновь рекордный
В октябре дефицит бюджета составил 284.4 млрд vs 257.5 млрд годом ранее и это рекордный дефицит за всю историю, обновив прошлый максимум в окт.20 (284.1 млрд).
Годовой дефицит балансирует около 1.8 трлн. Устойчивый дефицит, очищенный от разовых факторов, около 2 трлн. В сентябре 143 млрд из 198 млрд общего профицита обеспечили бумажные махинации и/или корректировки бюджетных ассигнований по итогам фискального года.
С февраля по октябрь 2025 (период, когда Трамп у руля) дефицит составил 1.22 трлн vs 1.56 трлн годом ранее, однако, по крайней мере до июля, дефицит сдерживался мерами принудительного характера (ограничение расходов в связи с лимитом по госдолгу).
С июля по октябрь 2025 дефицит составил 722 млрд (второй результат в истории) vs 817 млрд годом ранее, 369 млрд в 2023, около 650 млрд в 2022 и 2023, если скорректировать на авансирование студенческих кредитов и 685 млрд в 2020-2021.
Шатдаун на протяжении 1.5 месяцев не помешал зверствам в расходах, что было ожидаемо.
Чем обусловлен рекордный дефицит? Доходы выросли на 23.7% г/г до 404.4 млрд, а расходы выросли на 17.9% г/г до 688.7 млрд.
Основной вклад в прирост расходов обеспечили три категории:
• Medicare: +73.4 млрд (+95.2% г/г) или +70.3% от совокупного вклада в рост расходов
• Veterans Benefits and Services: +18.8 млрд (+60.7% г/г) или 18%
• Income Security: +17 млрд (+37.5%) или 16.2%.
Указанные категории сформировали 262.5 млрд совокупных расходов или 38.1% от всех расходов бюджета. Все прочие статьи расходов интегрально в нуле, но среди них выделяются процентные расходы, которые выросли на 10.6 млрд (+13.2% г/г) за год, достигая 90.9 млрд.
Формально, выплаты по ключевым программам были ускорены и перенесены на октябрь, так как плановая дата выплат (1 ноября 2025 года) выпала на выходной день (нерабочий день), но эти «нерабочие дни» не помешали раскрутить расходы выше рекордного прошлого года.
Так расходы бюджета с февраля по октябрь составили 5.26 трлн (+0.8% г/г) vs 5.22 трлн годом ранее, а с июля по октябрь – 2.35 трлн (+1.7% г/г) vs 2.31 трлн при очень высокой базе прошлого года, т.е ни о каком заявленном снижении расходов (в предвыборной демагогии) речи не идет.
Дальше тенденция только по нарастающей из-за «одного большого и очень красивого …»
Почему выросли доходы?
Из общих поступлений 404.4 млрд, что на $77.6 млрд (+23.7%) больше, чем годом ранее, рост был обеспечен двумя ключевыми факторами: резким увеличением сборов НДФЛ (+48.9 млрд или +29% за год) и ростом таможенных пошлин (+24.1 млрд или +330%), где пошлины составили 31.4 млрд за месяц.
Рост НДФЛ произошел за счет крупных выплат (почти 35 млрд) по расчетным налогам (estimated tax payments) или погашение задолженностей за прошлые периоды, преимущественно связанные с перерасчетом налогом по собственности/активам (это разовая история).
Таможенные пошлины (30-32 млрд) идут ниже расчетных (36-38 млрд), что может означать вывод значительной части товарных потоков из декларируемых пошлин (скидки, преференции, теневые торговые соглашения и т.д.)
В годом выражении таможенные пошлины находятся в диапазоне 350-400 млрд, что при годовых доходах в 5.3 трлн (около 7%) и при годовых расходах свыше 7.1 трлн (5.3%) является незначительной величиной, особенно на фоне бюджетных стимулов и фискальных субсидий, снижения налогов с общим эффектом около 0.5-0.6 трлн в год.
При этом эти идиоты собираются раздать сборы с пошлин в виде налоговых вычетов или прямых бюджетных субсидий населений в стиле фискального экстремизма 2020-2021 и это на фоне самого продолжительного за 45 лет отклонения инфляции от таргета (почти 5 лет непрерывно).
Чем обусловлен разгон российской промышленности в октябре?
Весь основной вклад обусловлен аномальной активностью в производстве прочих транспортных средства (беспилотники, ракеты МБР, бронетехника, авиация, флот), где рост составил 40.8% г/г, произошло ускорение роста в производстве готовых металлических изделий (оружие, патроны, снаряды, тактические ракеты) до 19.7% г/г, продолжает быстро расти производство микроэлектроники и компонентов (практически полностью на госзаказах) +9.1% г/г.
Так что происходит с российской обработкой?
Сначала по крупным отраслям, формирующим около 55% от совокупной выручки:
• Нефтепереработка: (-0.2)% г/г в октябре, (-0.6%) к окт.23, (-4.4%) к окт.19, за 10м25 (-0.5%) г/г, (-2.0%) к 10м23 и (-1.04%). Далее в указанной последовательности. Удивительно, но кризис на топливном рынке во многом из-за известных событий никак не отразился на производстве по версии Росстата.
• Металлургия: (-4.3%) г/г, (-8.1%), (-8.2%), за 10м25 (-3.9%) г/г, (-5.2%) и (-4.7%) соответственно.
• Химическое производство: (-2.7%) г/г, +2.6% и +23%, за 10м25 (-1.0%) г/г, +4.1% и +23%.
• Пищевые продукты: (-0.6%) г/г, +3.7% и +16.7%, за 10м25 (-0.6%) г/г, +4.3 и +20.7%.
Крупные отрасли, демонстрирующий наихудшую динамику с начала года:
• Производство автотранспортных средств: обвал на 38.4% г/г, (-26.9%), и (-49.5%), за 10м25 (-22.1%) г/г, (-6.2%) и (-41.1%).
• Производство прочей неметаллической минеральной продукции: (-9.2%) г/г, (-0.5%) и (+11.7%), за 10м25 (-8.7%) г/г, (-0.9%), +13.2%.
• Производство резиновых и пластмассовых изделий: (-9.0%) г/г, (-7.2%), +15.6%, за 10м25 (-7.2%) г/г, (-3.2%), +22.2%.
• Производство машин и оборудования: (-6.8%) г/г, (-6.0%) и +23.1%, за 10м25 (-5.1%) г/г, (-3.6%) и +31.9%.
• Производство электрического оборудования: (-10.1%) г/г, +2.0%, +33%, за 10м25 (-3.9%) г/г, +4.2% и +32.9%.
• Производство напитков (-0.6%) г/г, +14.2% и +37.6%, за 10м25 (-3.8%) г/г, +8.1% и +28.2%.
Крупные отрасли, демонстрирующий наибольший вклад в стабилизацию промышленности:
• Производство прочих транспортных средств и оборудования: +40.8% г/г, +90.6% и +224.2%, за 10м25 +33% г/г, +75.3% и +166%.
• Производство готовых металлических изделий, кроме машин и оборудования: +19.7% г/г, +53.8%, +10.2%, за 10м25 +16.1% г/г, +52.1% и +162.6%.
• Производство компьютеров, электронных и оптических изделий: +9.1% г/г, +63.6% и +96.2%. за 10м25 +13.4% г/г, +47% и +140.9%.
• Производство лекарственных средств и материалов: +20.2% г/г, +43.4% и +77.1%, за 10м25 +15.8% г/г, +36.3% и +105.3%.
• Ремонт и монтаж машин и оборудования (частично учет работ по восстановлению бронетехники после расконсервации): +4.9% г/г, +24.3% и +39.1%, за 10м25 +1.5% г/г, +13.2% и +31.9%.
В конце 2025 еще более выраженная сепарация экономики на гражданский/частный сектор (падение продолжается с ускорением) и государственный сектор (достаточно интенсивный рост, но менее выраженный, чем в 2023-2024).
Все, что связано с ВПК, госзаказами и госгарантиями – растет, а вне государственной экономики – уже кризис в соответствии с данными Росстата. При этом государству удается компенсировать негативную динамику в частном секторе, что и приводит к интегральному результату, характеризующемуся, как рост низкой интенсивности ближе к стагнации.
Промышленная активность в России восстанавливается
Объем промпроизводства резко вырос на 3% м/м SA в октябре (максимальный рост за 5 лет) после снижения на 0.9% м/м в сентябре по оценкам Росстата.
Это действительно аномальный разброс, хотя методика расчета с исключением сезонного и календарного факторов должна наоборот сглаживать волатильность, но это эффект дискретного и иррегулярного характера ввода продукции в ВПК, что сильно искажает сезонные коэффициенты.
Мощнейший рост в октябре позволил компенсировать стагнацию промышленности на протяжении 9м25, выводя индекс на максимумы с дек.24 – в ретроспективном анализе мало, что меняется, смены тренда пока нет, но фиксация коридора (режима стагнации) по верхней границе.
В сравнении с окт.24 рост на 3.3% - максимальный рост с дек.24, до этого на протяжении всего 2025 годовая динамика была в диапазоне от минус 0.8% до +2%, т.е. очевидный прогресс. К окт.23 +9.7%, а к окт.19 +17.8%. За 10м25 +1.1% г/г, +6.3% к 10м23 и +15.4% к 10м19.
▪️Основной вклад в рост оказала обрабатывающая промышленность, месячный прирост в которой оказался сильнейшим за 5 лет (+4.5% м/м SA), превзойдя на 0.9% прошлый максимум в дек.24.
В октябре по обработке +4.4% г/г, +16.8% к окт.23 и +32.9% к окт.19, за 10м25 +3% г/г, +12.5% за два года и +32.2% за 6 лет.
Весь впечатляющий прирост обусловлен отдельными секторами в ВПК, но с начала 2025 в гражданских отраслях усиливается негативная динамика.
▪️Добыча полезных ископаемых +1.4% г/г в октябре, (-0.3%) к окт.23 и (-2.1%) к окт.19, за 10м25 снижение на 1.6% г/г, (-2.0%) к 10м23 и (-4.3%) к 10м19.
В добыче нисходящая траектория последних трех лет сменяется стагнацией, уровень добычи полезных ископаемых находится на средних уровнях 4кв24. Точка наихудшей диспозиции в добыче была весной 2025 (март-апрель), с тех пор медленная нормализация, но даже так добыча находится на уровня начала 2018 и примерно на 4.5-5% ниже максимальных показателей в конце 2019.
▪️Электроэнергетика выросла на 1.3% г/г в октябре, +2.7% за два года и +7.2% за 6 лет, за 10м25 (-1.5%) г/г, +1.6% к 10м23 и +6% к 10м19.
По электроэнергетике интегрально стагнация 1.5 года и лишь на 1.5% выше уровней 2021-2023, здесь динамика выработки энергии слабо коррелирует с бизнес-циклами.
▪️Водоснабжение, водоотведение, вывоз мусора, утилизация отходов: (-3.2%) г/г в октябре, (-1.2%) к окт.23 и +11.5% к окт.19, за 10м25 (-3.5%) г/г, +0.3% к 10м23 и +10.2% к 10м19.
В коммунальных услугах нисходящая траектория практически непрерывна с середины 2024, а текущие уровни сопоставимы с 1П21.
В промышленности с начала 2022 интегральная нисходящая траектория по добыче, электроэнергии и коммунальным услугам, что компенсируется резким ростом обработки практически полностью за счет ВПК (подробности в следующем материале).
Однако, в октябре произошла нормализация по всем секторам, за исключением коммунальных услуг.
Итак
В честь дня рождения канала открывается доступ к приватному клубу, но это в первый и последний раз.
В среднем 90% инсайдерской информации приходится на этот источник. Доступа на сутки должно хватить, чтобы вступить успели самые активные читатели.
Вступить —https://t.me/+qPzAml9x7fA2MWM0
🤡 141👍 137❤ 94🔥 57👎 36💯 27❤🔥 18🎉 16😁 8🥰 7🤬 6
