Где мы сейчас, как читать рынок, как считать экономику и что реально работает в промптинге
Бизнес-школа МФТИ · Курс Gen AI · 7 апреля 2026 · Рудомёткин Егор
Январь 2024 → апрель 2026. Что случилось с ценами, моделями и деньгами.
GPT-4 → GPT-5.4
Март 2023: GPT-4 — $30 / $60 за 1M токенов
Апрель 2026: GPT-5.4 — $2.50 / $15 за 1M токенов
GPT-4 vs GPT-4o mini
Gemini 2.0 Flash-Lite — $0.075 / 1M = ~400× дешевле GPT-4 при сопоставимом качестве
Барьер входа в «AI-продукт с нормальным качеством» обрушился. Если год назад ты не мог себе позволить прогонять 1M запросов — сейчас можешь.
a16z «LLMflation»: ~10× падения в год, с GPT-4 уже 62×.
Следствие: тонкая обёртка над API — не продукт. Moat надо искать не в модели.
$242B — глобальные VC в AI за Q1 2026 (Crunchbase) · 14 раундов по $1B+ за квартал · $35.3B в GenAI за весь 2025 (OECD) · xAI +$20B. Для сравнения: GenAI funding 2024 = $33.9B (8× от 2022, Stanford HAI).
Кто лидер, сколько стоит, когда что выбирать.
| Модель | Провайдер | Input $/1M | Output $/1M | Контекст | Лучше всего для |
|---|---|---|---|---|---|
| GPT-5.4 | OpenAI | $2.50 | $15.00 | 128K | Unified: код + computer use + knowledge |
| GPT-5.4 Pro | OpenAI | $21.00 | $168.00 | 128K | Критические задачи, максимум точности |
| Claude Opus 4.6 | Anthropic | $5.00 | $25.00 | 200K (1M бета) | Сложный reasoning, агенты, код |
| Claude Sonnet 4.6 | Anthropic | $3.00 | $15.00 | 200K | Баланс цена/качество, enterprise |
| Claude Haiku 4.5 | Anthropic | $1.00 | $5.00 | 200K | Бюджетные высокообъёмные задачи |
| Gemini 3.1 Pro | $2.00 | $12.00 | 1M+ | Длинный контекст, мультимодальность | |
| Gemini 2.5 Flash | $0.30 | $2.50 | 1M | Быстрые задачи с большим контекстом | |
| DeepSeek V4 | DeepSeek · Open | $0.30 | $0.50 | 128K | Код, reasoning по минимальной цене |
| DeepSeek R1 | DeepSeek · Open | $0.55 | $2.19 | 64K | Reasoning — на 96% дешевле o1 |
| Llama 4 Maverick | Meta · Open | self-host | — | 1M | Privacy, кастомизация, on-prem |
| GPT-5.4 nano | OpenAI | $0.05 | $0.40 | 128K | Классификация, extraction, routing |
| Grok 4.1 | xAI | $0.20 | $0.50 | 128K | Дешёвый high-volume inference |
Источники: TokenCost AI Price Index, официальные pricing pages, март-апрель 2026.
ЗАДАЧА × ОБЪЁМ × БЮДЖЕТ × LATENCY × PRIVACY
обучение DeepSeek V3 (только GPU)
В 10–30× дешевле при сопоставимом качестве. MoE + data curation + дистилляция.
Справочник, с которым вы будете жить весь курс.
5 тезисов, которые вы слышите каждую неделю. Что из этого работает у вас в проекте.
За: Gemini уже 1–2M, Llama 4 Scout 10M. Для многих задач «засунь весь документ» работает.
Против: длинный контекст ≠ точный retrieval (lost-in-the-middle). Прогнать 1M токенов vs найти нужные 2K — разница в 500× по цене. Фильтры, метаданные, гибридный поиск — длинный контекст не даёт.
Вердикт: RAG эволюционирует в agentic RAG, не умирает. Лекция 2 — про это.
За: DeepSeek V4 конкурирует с GPT-5.2. Llama 4, Qwen 3, Mistral — сильные игроки. R1 на HuggingFace — 10M+ скачиваний.
Против: GPT-5.4 Pro, Opus 4.6 — по-прежнему лидеры на сложных задачах. «Open» DeepSeek обучен на закрытых данных. Без $100B+ инвестиций — не догнать по скорости.
Вердикт: догоняют по медиане, отстают по фронтиру. Ваш выбор — микс.
За: тонкие «обёртки» над API копируются за дни. Модели — commodity. OpenAI сам добавляет фичи, которые были продуктами.
Против: moat бывает в данных (proprietary datasets), в workflow (Cursor), в дистрибуции (Copilot в GitHub), в вертикальной экспертизе (медицина, юриспруденция), в сетевых эффектах.
Вердикт: moat не в модели. Moat в данных, процессе и дистрибуции. Это — тема Лекции 5.
За: один человек + AI делает за вечер лендинг + копирайт + 5 постов. Cursor — MVP за дни вместо недель. Валидация идеи — часы.
Против: AI ускоряет execution, но не заменяет strategy и customer development. 10× в создании артефактов ≠ 10× в достижении PMF. Риск «AI-иллюзии качества».
Вердикт: 10× в артефактах — да. 10× до PMF — нет. Путь к клиенту не параллелится.
Что на самом деле лежит внутри у Cursor, v0 и Perplexity.
| Продукт | Токены |
|---|---|
| Cursor | 5 000 – 15 000 |
| Claude (claude.ai) | 10 000 – 30 000 |
| v0 | 5 000 – 10 000 |
| Perplexity | 3 000 – 8 000 |
| ChatGPT | 5 000 – 15 000 |
| Devin | 10 000 – 20 000 |
Ключевое: «промпт» в продакшене — это инженерный артефакт на десятки тысяч токенов, а не «ты эксперт, дай совет».
Техники, которые работают. И один паттерн, который мы унесём с собой в курсовой продукт.
Референс: Anthropic Prompt Engineering Guide · OpenAI Cookbook · Gemini Prompting Guide
«Создай методологию customer development интервью для [мой продукт]. Включи цели, вопросы, критерии оценки ответов.»
«Используя методологию выше, проанализируй эти 5 транскриптов интервью: [данные]»
Методология — переиспользуемый артефакт. Файл, который вы закидываете в контекст AI-ассистента снова и снова.
На выходе курса у каждого — карта задач стартапа с методологиями и промптами под свой проект.
Навык ≠ промпт. Навык = методология + промпт.
Как считать AI COGS, где оптимизировать, чем держать gross margin.
Cost = (in/1M × $in) + (out/1M × $out)
Пример: 1000 in + 500 out на Sonnet 4.6 = $0.0105
Cost_RAG ≈ Cost_embed + Cost_gen
Итого: $0.001 (DeepSeek V4) — $0.02 (Sonnet)
Cost_agent = N_steps × Cost_per_step
5–15 шагов. Sonnet: $0.05–$0.15 за вызов
① Prompt caching — DeepSeek даёт 90% скидку на cached input. Anthropic, OpenAI — 50–90%.
② Model routing — 90% трафика на mini + 10% на флагман = 86% экономии. 99/1 = 98.5%.
③ Batch API — OpenAI: 50% скидка за async (24ч turnaround). Идеально для аналитики и генерации контента.
④ Downgrade модели — GPT-4o → DeepSeek V4 = input 8× / output 20× дешевле при 80% качества.
gross margin
Цель зрелого AI-продукта: 60–70%+. Стартовое поле: 20–40%. Классический SaaS: 75–85%.
100K запросов/мес на чистом Sonnet ≈ $2 000 / мес COGS. Routing даёт 86% экономии — $280.
Вопросы?
Егор Рудомёткин · @rudometkin_blog