История ИИ: от экспертных систем до генеративных моделей
Коротко по статье:
- Зачем знать историю ИИ: отделяем парадигму от обертки и считаем стоимость задержку и риски
- Экспертные системы: правила если A и B то C, кейсы MYCIN и XCON R1 и их управляемость
- Почему правила не масштабируются: бутылочное горлышко добычи знаний, устаревание модерации креативов и бренд-сейфти
- Зимы ИИ: разрыв обещаний и инфраструктуры данных вычислений сенсоров процессов и KPI, пример Lighthill report 1973
- Переход к данным: статистическое ML, затем deep learning на GPU, backprop и перелом AlexNet на ImageNet
- Генеративная эпоха: трансформеры BERT и GPT-3, массовый цикл ChatGPT и рамка 2026 с CTR CR и формулой эффекта
Определение
История ИИ для маркетолога и media buying — прикладная карта эволюции от экспертных систем и классического ML к deep learning, трансформерам и генеративным моделям с их типичными провалами. На практике это цикл внедрения: какой процесс ускоряем, какой KPI защищаем, какой риск допускаем, какой контур качества ставим, затем проверяем через CTR CR и считаем эффект по формуле.
Содержание
- Зачем маркетологу знать историю ИИ, а не только «новые модели»
- Экспертные системы: интеллект как регламент
- Почему случались «зимы ИИ» и чем они полезны сегодня?
- Статистическое машинное обучение: когда данные стали важнее правил
- Глубокое обучение: GPU, большие датасеты и возвращение нейросетей
- Трансформеры и foundation models: сдвиг от «фичей» к предобучению
- Что произошло, когда генеративные модели вышли в продакшен?
- Под капотом: механика смены парадигм и «узкие места», которые повторяются
- Рамка 2026 для media buying и маркетинга: как применять историю на практике
- Куда движется ИИ после 2026: гибридность, регулирование, ответственность
История ИИ — это не музей. Для арбитражника трафика и интернет-маркетолога она работает как «антихайп-фильтр»: помогает понять, почему одни подходы взлетают, другие упираются в потолок, а третьи возвращаются в новом виде, когда появляются данные, вычисления и понятные бизнес-задачи.
Зачем маркетологу знать историю ИИ, а не только «новые модели»
Если вы занимаетесь media buying или маркетинг-операциями, вам регулярно прилетают запросы из серии «внедрите ИИ, чтобы было быстрее и дешевле» — без уточнения, что именно считать быстрее, где именно дешевле и какой риск приемлем.
Знание эволюции ИИ дает практичную вещь: вы начинаете отличать парадигму (как система решает класс задач) от обертки (интерфейс, промо, интеграции). Тогда разговор с руководством становится предметным: «это не "магия", это модели вероятности + данные + вычисления; у них есть стоимость, задержка, риск галлюцинаций и контур качества».
Экспертные системы: интеллект как регламент
Экспертные системы — ранняя индустриальная версия ИИ, где «ум» задавали правилами: если выполнены условия A и B, то делаем C. Это был не генератор идей, а автоматизация решений в узком домене, где логика понятна человеку и ее можно выписать.
MYCIN и XCON: когда правила реально экономили деньги
В 1970-х MYCIN в Стэнфорде показывал, что набор правил может неплохо консультировать по узкой медицинской задаче, но реальная эксплуатация упиралась в юридические и организационные ограничения.
А в корпоративном мире символом «практичного ИИ до нейросетей» стал XCON (R1) в DEC: к середине 1980-х система обрабатывала десятки тысяч заказов, имела тысячи правил и оценочно экономила компании десятки миллионов долларов в год за счет сокращения ошибок конфигурации.
Эта часть истории важна для маркетинга простым выводом: самая сильная сторона экспертных систем — управляемость. Их можно аудитить, объяснять, закреплять регламентом. В арбитраже это похоже на идею «скриптов и чек-листов», только в машинной форме.
Почему экспертные системы не стали универсальными?
Главный стоп-фактор называли «бутылочным горлышком добычи знаний»: правила нужно извлекать у экспертов, согласовывать, поддерживать, обновлять, а мир меняется быстрее, чем успевает обновляться база знаний.
Для маркетинга это звучит знакомо: если вы один раз «захардкодили» правила модерации креативов или бренд-сейфти, они устареют, как только площадка поменяет политику или аудитория сместит культурные коды.
Почему случались «зимы ИИ» и чем они полезны сегодня?
«Зима ИИ» — это не про то, что идеи были плохие, а про разрыв между обещаниями и инфраструктурой: не хватало данных, вычислений, сенсоров, стабильных бизнес-процессов и реалистичных KPI. Когда ожидания улетали в космос, финансирование и внимание возвращались на землю.
Классический пример — британский Lighthill report (1973), который критиковал практическую отдачу многих направлений и стал одним из факторов сокращения поддержки исследований в Великобритании.
Полезный урок для 2026: если внутри компании ИИ продают как «замену отдела», а не как инструмент повышения пропускной способности (производства креативов, анализа, саппорта, прототипирования), вы почти гарантированно попадете в мини-«зиму» уже на пилоте.
Совет эксперта от npprteam.shop: «Перед внедрением формулируйте не "что умеет модель", а "какой процесс она разгружает": где узкое место, какая метрика, какой допустимый процент ошибок и кто отвечает за контроль качества. Без этого ИИ превращается в дорогую игрушку».
Статистическое машинное обучение: когда данные стали важнее правил
Следующая волна ИИ сместила фокус: вместо ручных правил — модели, которые учатся по данным и находят закономерности статистически. В маркетинге это ближе всего к привычной логике оптимизации: мы не «доказываем» причинность на уровне здравого смысла, мы находим устойчивые паттерны и проверяем их тестами.
Эта эпоха дала индустрии базовый контракт: качество модели зависит от признаков, качества данных, разметки и корректной постановки задачи. Поэтому в реальном бизнесе побеждают не самые «умные» формулы, а те, кто умеет строить пайплайн данных и оценку качества без самообмана.
Глубокое обучение: GPU, большие датасеты и возвращение нейросетей
Глубокое обучение стало массовым, когда совпали три вещи: удобный алгоритм обучения многослойных сетей, большие датасеты и вычисления на GPU. После этого нейросети перестали быть «академической экзотикой» и стали конкурентным инструментом.
Backprop и «вторая жизнь» нейросетей
Один из ключевых кирпичей — популяризация обратного распространения ошибки (backprop) в 1980-х: это дало практичный способ обучать многослойные сети, а не только рассуждать о них теоретически.
Почему 2012 год считают переломным
AlexNet на ImageNet показал, что глубокие сверточные сети при достаточных вычислениях и данных могут резко улучшить качество распознавания изображений — и индустрия массово повернула в сторону deep learning.
Для маркетинга и арбитража здесь важна не «красота нейросетей», а практический эффект: автоматизация распознавания и генерации контента стала масштабируемой. Как только машина начинает уверенно работать с изображением, текстом и звуком, у вас меняется экономика креатива и скорость гипотез.
Трансформеры и foundation models: сдвиг от «фичей» к предобучению
Трансформер изменил игру тем, что стал эффективно учиться на огромных корпусах данных и хорошо масштабироваться, а затем переносить знания на конкретные задачи. Вместо «делаем модель под задачу» логика стала такой: «берем большую предобученную модель и адаптируем ее под контекст».
Почему BERT и GPT-3 стали маркерами эпохи
BERT закрепил идею мощного предобучения для понимания языка в прикладных задачах, а GPT-3 показал эффект масштаба для генерации и few-shot сценариев, включая модель на 175 млрд параметров.
| Парадигма | На чем держится | Сильная сторона | Типичный провал | Маркетинговое применение |
|---|---|---|---|---|
| Экспертные системы | Правила и доменные эксперты | Объяснимость, контроль | Дорого поддерживать, быстро устаревает | Регламенты, compliance-проверки, простые decision-деревья |
| Классическое ML | Данные, признаки, метрики | Стабильная оптимизация под KPI | Смещение данных, плохая постановка задачи | Скоринг лидов, прогнозы, антифрод, атрибуция, оптимизация ставок |
| Deep Learning | Большие датасеты + GPU | Работа с «сырыми» сигналами: текст, изображение, звук | Нужно много данных и контроля качества | Модерация креативов, CV-аналитика, генерация вариаций |
| Foundation / генеративные модели | Предобучение на больших корпусах + донастройка/контекст | Гибкость: один "движок" закрывает много задач | Галлюцинации, безопасность, непредсказуемость на краях | Контент-производство, ассистенты, поисковые сценарии, анализ текста/звонков |
Что произошло, когда генеративные модели вышли в продакшен?
Сдвиг случился, когда генеративные модели стали продуктом для миллионов пользователей: чат-интерфейс, низкий порог входа, быстрый цикл «запрос → результат → правка». Публичный запуск ChatGPT в ноябре 2022 стал для рынка таким же «триггером массового применения», как AlexNet для CV.
Дальше пошла гонка качества и мультимодальности: GPT-4 вышел в марте 2023, а GPT-4o в мае 2024 продвигали как модель, которая работает с текстом, изображениями и аудио более нативно, чем предыдущие поколения.
Почему маркетинг почувствовал это раньше многих отделов
Маркетинг живет в среде, где допускаются быстрые итерации и вариативность: один и тот же оффер можно изложить десятком способов, один и тот же креатив можно раскрутить в нескольких стилях, один и тот же лендинг можно переупаковать под разные сегменты. Генеративный ИИ идеально ложится на такие процессы, потому что дает скорость, а не «истину».
Совет эксперта от npprteam.shop: «Генеративный ИИ — это станок по черновикам. Настоящая прибыль появляется, когда вы строите конвейер: бриф → генерация → проверка фактов и бренда → тест → обратная связь в бриф. Если пропустить этап контроля, вы просто ускорите производство мусора».
Под капотом: механика смены парадигм и «узкие места», которые повторяются
История ИИ циклична: идеи часто появляются раньше, чем становится доступна инфраструктура, а затем возвращаются, когда совпадают данные, вычисления и нужные бизнес-контуры. Если смотреть на это трезво, то большинство «революций» — это момент, когда стоимость применения падает настолько, что технологию можно поставить в поток.
Пять фактов, которые хорошо объясняют эволюцию без мифов
Факт 1. Термин "artificial intelligence" закрепился через предложение и проведение Дартмутского летнего проекта 1956 года: поле было сформулировано как единая дисциплина задолго до современных нейросетей.
Факт 2. Успех XCON измерялся не «интеллектом», а операционными метриками: к 1986 году упоминаются ~80 000 обработанных заказов и точность 95–98%, а экономический эффект оценивали примерно в $25 млн в год.
Факт 3. Критика и охлаждение финансирования — это не «провал науки», а реакция на несбывшиеся обещания: Lighthill report (1973) прямо повлиял на поддержку ИИ-исследований в британских университетах.
Факт 4. Трансформер изначально был предложен для машинного перевода и ускорения обучения за счет внимания и параллелизма; затем этот принцип стал фундаментом больших языковых моделей.
Факт 5. Масштабирование в генеративных моделях — не абстракция: GPT-3 в статье 2020 года описывается как модель на 175 млрд параметров и демонстрирует рост способности решать задачи по одному лишь текстовому контексту.
Почему современные модели «уверенно выдают неправильное»
Генеративная модель оптимизирует правдоподобие продолжения, а не истинность по внешнему миру; поэтому при нехватке контекста она может «достраивать» ответ так, как это статистически похоже на правду. Это не "характер модели", а свойство постановки задачи.
На практике это решается не надеждой на «умность», а инженерными контурами: ограничением источников, проверками, трассировкой, тест-наборами, а иногда и возвращением к правилам в критичных местах — ровно как в эпоху экспертных систем.
Рамка 2026 для media buying и маркетинга: как применять историю на практике
В 2026 году выигрыш получают команды, которые используют ИИ не как замену людей, а как усилитель пропускной способности: быстрее исследуют, быстрее производят вариации, быстрее находят ошибки, быстрее учатся на данных. Это звучит просто, но упирается в дисциплину процесса и качество входных артефактов.
Как «переводить» новости про ИИ на язык задач и рисков
Мы в npprteam.shop используем простой принцип: любую новость про модель переводим в четыре вопроса — какой процесс ускоряем, какой KPI защищаем, какой риск допускаем, какой контур контроля качества ставим. Если на один из вопросов нет ответа, значит это пока не проект, а обсуждение.
| Что вы хотите получить от ИИ | Как проверять (без самообмана) | Где чаще всего ломается | Какой подход обычно надежнее |
|---|---|---|---|
| Больше вариаций креатива | Сравнение по CTR/CR в одинаковых условиях теста | Шум из-за разного трафика и временных окон | Генерация + жесткий бриф + пост-редактура человеком |
| Быстрее анализ гипотез | Проверка выводов на первичных данных и логике расчета | Галлюцинации цифр, подмена причин корреляциями | Модель как «аналитик-черновик» + валидация метрик |
| Автоматизация рутины | Замер времени цикла и доли ошибок до/после | Нет владельца процесса и ответственности за качество | Правила на критичных шагах + ИИ на вариативных |
| Единый ассистент для команды | Оценка полезности по задачам, а не по "красоте ответов" | Смешение источников, отсутствие единой базы знаний | Контекст из доверенных материалов + ограничения источников |
Мини-калькулятор смысла: когда пилот стоит своих денег
Чтобы не спорить на уровне эмоций, полезно фиксировать простую формулу эффекта: Эффект = (сэкономленные часы × стоимость часа) + прирост прибыли от тестов − стоимость внедрения − стоимость контроля качества. Здесь ключевое — не «идеальная точность», а то, что вы заранее учитываете цену ошибок и цену проверки.
Именно поэтому история ИИ повторяется: как только стоимость проверки становится сопоставима или ниже пользы, технология закрепляется. Если проверка слишком дорогая, рынок откатывается в «зиму» и перестает платить за обещания.
Куда движется ИИ после 2026: гибридность, регулирование, ответственность
После 2026 логика становится более взрослой: меньше восторга от демонстраций, больше требований к ответственности, прозрачности и управлению рисками. На уровне регулирования показателен EU AI Act: он вступил в силу 1 августа 2024, а дальше для компаний важны сроки применения отдельных требований и практики комплаенса.
Технически мир тоже "смешивается": там, где нужно творчество и вариативность, остаются генеративные модели; там, где нужен контроль, остаются правила, тест-наборы и детерминированные проверки; между ними растет слой интеграций, который превращает ИИ из «болталки» в инструмент процесса.
Если держать в голове всю историю — от экспертных систем до генеративных моделей — у вас появляется спокойствие: ИИ не обязан быть идеальным, чтобы быть выгодным. Он обязан быть встроенным в измеримый процесс, где скорость не убивает качество, а качество не убивает скорость.

































