История ИИ: от экспертных систем до генеративных моделей

История ИИ: от экспертных систем до генеративных моделей
0.00
(0)
Просмотров: 39572
Время прочтения: ~ 9 мин.
Нейросети
20.01.26

Коротко по статье:

  • Зачем знать историю ИИ: отделяем парадигму от обертки и считаем стоимость задержку и риски
  • Экспертные системы: правила если A и B то C, кейсы MYCIN и XCON R1 и их управляемость
  • Почему правила не масштабируются: бутылочное горлышко добычи знаний, устаревание модерации креативов и бренд-сейфти
  • Зимы ИИ: разрыв обещаний и инфраструктуры данных вычислений сенсоров процессов и KPI, пример Lighthill report 1973
  • Переход к данным: статистическое ML, затем deep learning на GPU, backprop и перелом AlexNet на ImageNet
  • Генеративная эпоха: трансформеры BERT и GPT-3, массовый цикл ChatGPT и рамка 2026 с CTR CR и формулой эффекта

Определение

История ИИ для маркетолога и media buying — прикладная карта эволюции от экспертных систем и классического ML к deep learning, трансформерам и генеративным моделям с их типичными провалами. На практике это цикл внедрения: какой процесс ускоряем, какой KPI защищаем, какой риск допускаем, какой контур качества ставим, затем проверяем через CTR CR и считаем эффект по формуле.

 

Содержание

История ИИ — это не музей. Для арбитражника трафика и интернет-маркетолога она работает как «антихайп-фильтр»: помогает понять, почему одни подходы взлетают, другие упираются в потолок, а третьи возвращаются в новом виде, когда появляются данные, вычисления и понятные бизнес-задачи.

Зачем маркетологу знать историю ИИ, а не только «новые модели»

Если вы занимаетесь media buying или маркетинг-операциями, вам регулярно прилетают запросы из серии «внедрите ИИ, чтобы было быстрее и дешевле» — без уточнения, что именно считать быстрее, где именно дешевле и какой риск приемлем.

Знание эволюции ИИ дает практичную вещь: вы начинаете отличать парадигму (как система решает класс задач) от обертки (интерфейс, промо, интеграции). Тогда разговор с руководством становится предметным: «это не "магия", это модели вероятности + данные + вычисления; у них есть стоимость, задержка, риск галлюцинаций и контур качества».

Экспертные системы: интеллект как регламент

Экспертные системы — ранняя индустриальная версия ИИ, где «ум» задавали правилами: если выполнены условия A и B, то делаем C. Это был не генератор идей, а автоматизация решений в узком домене, где логика понятна человеку и ее можно выписать.

MYCIN и XCON: когда правила реально экономили деньги

В 1970-х MYCIN в Стэнфорде показывал, что набор правил может неплохо консультировать по узкой медицинской задаче, но реальная эксплуатация упиралась в юридические и организационные ограничения.

А в корпоративном мире символом «практичного ИИ до нейросетей» стал XCON (R1) в DEC: к середине 1980-х система обрабатывала десятки тысяч заказов, имела тысячи правил и оценочно экономила компании десятки миллионов долларов в год за счет сокращения ошибок конфигурации.

Эта часть истории важна для маркетинга простым выводом: самая сильная сторона экспертных систем — управляемость. Их можно аудитить, объяснять, закреплять регламентом. В арбитраже это похоже на идею «скриптов и чек-листов», только в машинной форме.

Почему экспертные системы не стали универсальными?

Главный стоп-фактор называли «бутылочным горлышком добычи знаний»: правила нужно извлекать у экспертов, согласовывать, поддерживать, обновлять, а мир меняется быстрее, чем успевает обновляться база знаний.

Для маркетинга это звучит знакомо: если вы один раз «захардкодили» правила модерации креативов или бренд-сейфти, они устареют, как только площадка поменяет политику или аудитория сместит культурные коды.

Почему случались «зимы ИИ» и чем они полезны сегодня?

«Зима ИИ» — это не про то, что идеи были плохие, а про разрыв между обещаниями и инфраструктурой: не хватало данных, вычислений, сенсоров, стабильных бизнес-процессов и реалистичных KPI. Когда ожидания улетали в космос, финансирование и внимание возвращались на землю.

Классический пример — британский Lighthill report (1973), который критиковал практическую отдачу многих направлений и стал одним из факторов сокращения поддержки исследований в Великобритании.

Полезный урок для 2026: если внутри компании ИИ продают как «замену отдела», а не как инструмент повышения пропускной способности (производства креативов, анализа, саппорта, прототипирования), вы почти гарантированно попадете в мини-«зиму» уже на пилоте.

Совет эксперта от npprteam.shop: «Перед внедрением формулируйте не "что умеет модель", а "какой процесс она разгружает": где узкое место, какая метрика, какой допустимый процент ошибок и кто отвечает за контроль качества. Без этого ИИ превращается в дорогую игрушку».

Статистическое машинное обучение: когда данные стали важнее правил

Следующая волна ИИ сместила фокус: вместо ручных правил — модели, которые учатся по данным и находят закономерности статистически. В маркетинге это ближе всего к привычной логике оптимизации: мы не «доказываем» причинность на уровне здравого смысла, мы находим устойчивые паттерны и проверяем их тестами.

Эта эпоха дала индустрии базовый контракт: качество модели зависит от признаков, качества данных, разметки и корректной постановки задачи. Поэтому в реальном бизнесе побеждают не самые «умные» формулы, а те, кто умеет строить пайплайн данных и оценку качества без самообмана.

Глубокое обучение: GPU, большие датасеты и возвращение нейросетей

Глубокое обучение стало массовым, когда совпали три вещи: удобный алгоритм обучения многослойных сетей, большие датасеты и вычисления на GPU. После этого нейросети перестали быть «академической экзотикой» и стали конкурентным инструментом.

Backprop и «вторая жизнь» нейросетей

Один из ключевых кирпичей — популяризация обратного распространения ошибки (backprop) в 1980-х: это дало практичный способ обучать многослойные сети, а не только рассуждать о них теоретически.

Почему 2012 год считают переломным

AlexNet на ImageNet показал, что глубокие сверточные сети при достаточных вычислениях и данных могут резко улучшить качество распознавания изображений — и индустрия массово повернула в сторону deep learning.

Для маркетинга и арбитража здесь важна не «красота нейросетей», а практический эффект: автоматизация распознавания и генерации контента стала масштабируемой. Как только машина начинает уверенно работать с изображением, текстом и звуком, у вас меняется экономика креатива и скорость гипотез.

Трансформеры и foundation models: сдвиг от «фичей» к предобучению

Трансформер изменил игру тем, что стал эффективно учиться на огромных корпусах данных и хорошо масштабироваться, а затем переносить знания на конкретные задачи. Вместо «делаем модель под задачу» логика стала такой: «берем большую предобученную модель и адаптируем ее под контекст».

Почему BERT и GPT-3 стали маркерами эпохи

BERT закрепил идею мощного предобучения для понимания языка в прикладных задачах, а GPT-3 показал эффект масштаба для генерации и few-shot сценариев, включая модель на 175 млрд параметров.

ПарадигмаНа чем держитсяСильная сторонаТипичный провалМаркетинговое применение
Экспертные системыПравила и доменные экспертыОбъяснимость, контрольДорого поддерживать, быстро устареваетРегламенты, compliance-проверки, простые decision-деревья
Классическое MLДанные, признаки, метрикиСтабильная оптимизация под KPIСмещение данных, плохая постановка задачиСкоринг лидов, прогнозы, антифрод, атрибуция, оптимизация ставок
Deep LearningБольшие датасеты + GPUРабота с «сырыми» сигналами: текст, изображение, звукНужно много данных и контроля качестваМодерация креативов, CV-аналитика, генерация вариаций
Foundation / генеративные моделиПредобучение на больших корпусах + донастройка/контекстГибкость: один "движок" закрывает много задачГаллюцинации, безопасность, непредсказуемость на краяхКонтент-производство, ассистенты, поисковые сценарии, анализ текста/звонков

Что произошло, когда генеративные модели вышли в продакшен?

Сдвиг случился, когда генеративные модели стали продуктом для миллионов пользователей: чат-интерфейс, низкий порог входа, быстрый цикл «запрос → результат → правка». Публичный запуск ChatGPT в ноябре 2022 стал для рынка таким же «триггером массового применения», как AlexNet для CV.

Дальше пошла гонка качества и мультимодальности: GPT-4 вышел в марте 2023, а GPT-4o в мае 2024 продвигали как модель, которая работает с текстом, изображениями и аудио более нативно, чем предыдущие поколения.

Почему маркетинг почувствовал это раньше многих отделов

Маркетинг живет в среде, где допускаются быстрые итерации и вариативность: один и тот же оффер можно изложить десятком способов, один и тот же креатив можно раскрутить в нескольких стилях, один и тот же лендинг можно переупаковать под разные сегменты. Генеративный ИИ идеально ложится на такие процессы, потому что дает скорость, а не «истину».

Совет эксперта от npprteam.shop: «Генеративный ИИ — это станок по черновикам. Настоящая прибыль появляется, когда вы строите конвейер: бриф → генерация → проверка фактов и бренда → тест → обратная связь в бриф. Если пропустить этап контроля, вы просто ускорите производство мусора».

Под капотом: механика смены парадигм и «узкие места», которые повторяются

История ИИ циклична: идеи часто появляются раньше, чем становится доступна инфраструктура, а затем возвращаются, когда совпадают данные, вычисления и нужные бизнес-контуры. Если смотреть на это трезво, то большинство «революций» — это момент, когда стоимость применения падает настолько, что технологию можно поставить в поток.

Пять фактов, которые хорошо объясняют эволюцию без мифов

Факт 1. Термин "artificial intelligence" закрепился через предложение и проведение Дартмутского летнего проекта 1956 года: поле было сформулировано как единая дисциплина задолго до современных нейросетей.

Факт 2. Успех XCON измерялся не «интеллектом», а операционными метриками: к 1986 году упоминаются ~80 000 обработанных заказов и точность 95–98%, а экономический эффект оценивали примерно в $25 млн в год.

Факт 3. Критика и охлаждение финансирования — это не «провал науки», а реакция на несбывшиеся обещания: Lighthill report (1973) прямо повлиял на поддержку ИИ-исследований в британских университетах.

Факт 4. Трансформер изначально был предложен для машинного перевода и ускорения обучения за счет внимания и параллелизма; затем этот принцип стал фундаментом больших языковых моделей.

Факт 5. Масштабирование в генеративных моделях — не абстракция: GPT-3 в статье 2020 года описывается как модель на 175 млрд параметров и демонстрирует рост способности решать задачи по одному лишь текстовому контексту.

Почему современные модели «уверенно выдают неправильное»

Генеративная модель оптимизирует правдоподобие продолжения, а не истинность по внешнему миру; поэтому при нехватке контекста она может «достраивать» ответ так, как это статистически похоже на правду. Это не "характер модели", а свойство постановки задачи.

На практике это решается не надеждой на «умность», а инженерными контурами: ограничением источников, проверками, трассировкой, тест-наборами, а иногда и возвращением к правилам в критичных местах — ровно как в эпоху экспертных систем.

Рамка 2026 для media buying и маркетинга: как применять историю на практике

В 2026 году выигрыш получают команды, которые используют ИИ не как замену людей, а как усилитель пропускной способности: быстрее исследуют, быстрее производят вариации, быстрее находят ошибки, быстрее учатся на данных. Это звучит просто, но упирается в дисциплину процесса и качество входных артефактов.

Как «переводить» новости про ИИ на язык задач и рисков

Мы в npprteam.shop используем простой принцип: любую новость про модель переводим в четыре вопроса — какой процесс ускоряем, какой KPI защищаем, какой риск допускаем, какой контур контроля качества ставим. Если на один из вопросов нет ответа, значит это пока не проект, а обсуждение.

Что вы хотите получить от ИИКак проверять (без самообмана)Где чаще всего ломаетсяКакой подход обычно надежнее
Больше вариаций креативаСравнение по CTR/CR в одинаковых условиях тестаШум из-за разного трафика и временных оконГенерация + жесткий бриф + пост-редактура человеком
Быстрее анализ гипотезПроверка выводов на первичных данных и логике расчетаГаллюцинации цифр, подмена причин корреляциямиМодель как «аналитик-черновик» + валидация метрик
Автоматизация рутиныЗамер времени цикла и доли ошибок до/послеНет владельца процесса и ответственности за качествоПравила на критичных шагах + ИИ на вариативных
Единый ассистент для командыОценка полезности по задачам, а не по "красоте ответов"Смешение источников, отсутствие единой базы знанийКонтекст из доверенных материалов + ограничения источников

Мини-калькулятор смысла: когда пилот стоит своих денег

Чтобы не спорить на уровне эмоций, полезно фиксировать простую формулу эффекта: Эффект = (сэкономленные часы × стоимость часа) + прирост прибыли от тестов − стоимость внедрения − стоимость контроля качества. Здесь ключевое — не «идеальная точность», а то, что вы заранее учитываете цену ошибок и цену проверки.

Именно поэтому история ИИ повторяется: как только стоимость проверки становится сопоставима или ниже пользы, технология закрепляется. Если проверка слишком дорогая, рынок откатывается в «зиму» и перестает платить за обещания.

Куда движется ИИ после 2026: гибридность, регулирование, ответственность

После 2026 логика становится более взрослой: меньше восторга от демонстраций, больше требований к ответственности, прозрачности и управлению рисками. На уровне регулирования показателен EU AI Act: он вступил в силу 1 августа 2024, а дальше для компаний важны сроки применения отдельных требований и практики комплаенса.

Технически мир тоже "смешивается": там, где нужно творчество и вариативность, остаются генеративные модели; там, где нужен контроль, остаются правила, тест-наборы и детерминированные проверки; между ними растет слой интеграций, который превращает ИИ из «болталки» в инструмент процесса.

Если держать в голове всю историю — от экспертных систем до генеративных моделей — у вас появляется спокойствие: ИИ не обязан быть идеальным, чтобы быть выгодным. Он обязан быть встроенным в измеримый процесс, где скорость не убивает качество, а качество не убивает скорость.

Другие статьи

Об авторе

NPPR TEAM
NPPR TEAM

Арбитражная команда, специализирующаяся на продвижении различных офферов в зарубежных регионах, таких как Европа, США, Азия и Ближний Восток . Они активно используют различные источники трафика, включая Facebook, Google, тизерные сети и SEO. Команда также разрабатывает и предоставляет бесплатные инструменты для арбитражников, такие как генераторы white-page, квизов и уникализаторы. NPPR TEAM делится своим опытом через кейсы и интервью, предоставляя информацию о своих успехах и подходах в арбитраже трафика.​

Часто задаваемые вопросы

Что такое экспертные системы и почему они считаются первой «прикладной» волной ИИ?

Экспертные системы — это ИИ на правилах: «если A и B, то C». Они хорошо работали в узких доменах, где знания можно формализовать и аудитить. Примеры — MYCIN (медицинские рекомендации) и XCON/R1 в DEC (конфигурация заказов). Их сила — управляемость и объяснимость, а слабость — дорогая поддержка базы правил при изменении реальности.

Чем MYCIN и XCON отличаются по смыслу для бизнеса и маркетинга?

MYCIN показал потенциал правил в сложной предметной области, но упирался в внедрение и ответственность. XCON (R1) доказал ценность в операциях: меньше ошибок, быстрее обработка, понятные метрики. Для маркетинга это урок: ИИ выигрывает там, где есть процесс, входные данные и измеримый результат, а не просто «умный совет».

Почему экспертные системы не стали универсальным ИИ?

Главная проблема — «бутылочное горлышко знаний»: правила нужно добывать у экспертов, согласовывать, обновлять и тестировать. Когда политика платформ, рынок или поведение аудитории меняются, правила устаревают быстрее, чем их поддерживают. Поэтому универсальность не взлетела: масштабировать ручные правила сложнее, чем обучать модели на данных и обновлять их на новых выборках.

Что такое «зима ИИ» и почему она повторялась?

«Зима ИИ» — это спад интереса и финансирования из-за разрыва между обещаниями и возможностями. Часто не хватало данных, вычислений, сенсоров, надежных метрик и зрелых бизнес-процессов. В истории вспоминают и Lighthill report (1973) как фактор охлаждения ожиданий в Великобритании. Практический вывод: если KPI и риски не заданы, пилот обречен.

Когда данные стали важнее правил и что это изменило в машинном обучении?

Поворот случился с ростом доступных данных и статистических методов: модели начали учиться по примерам, а не по вручную заданным правилам. Это породило привычную для маркетинга логику: качество зависит от датасета, разметки, признаков и метрик. Ошибки часто связаны не с «плохой моделью», а со смещением данных и неверной постановкой задачи.

Почему deep learning «выстрелил» только спустя десятилетия после первых нейросетей?

Идеи нейросетей появились рано, но массовая эффективность пришла, когда совпали три условия: алгоритмы обучения (включая backprop), большие датасеты и вычисления на GPU. Тогда сети стали уверенно работать с изображениями, текстом и звуком. Для маркетинга это означает смену экономики креатива: больше вариаций и быстрее тестирование при правильном контроле качества.

Почему 2012 год и AlexNet на ImageNet называют переломным моментом?

AlexNet показал, что глубокие сверточные сети при достаточных вычислениях и данных могут резко улучшить качество распознавания изображений на ImageNet. Это стало сигналом индустрии, что deep learning масштабируется и дает практический выигрыш. После этого ускорились инвестиции в GPU-инфраструктуру, датасеты и прикладные продукты, включая модерацию и анализ визуального контента.

Что изменили трансформеры и почему они стали базой для больших языковых моделей?

Трансформеры сделали обучение на больших текстовых массивах эффективным за счет механизма внимания и параллелизма. Это позволило строить foundation models: сначала предобучение на огромных корпусах, затем адаптация под задачи. Вехи эпохи — BERT для понимания языка и GPT-3 для генерации и few-shot сценариев. Порог входа в автоматизацию текста заметно снизился.

Почему генеративные модели могут «уверенно ошибаться» и как с этим жить в продакшене?

Генеративные модели оптимизируют правдоподобие ответа по контексту, а не истинность по внешнему миру, поэтому при дефиците фактов возможны «галлюцинации». Решение инженерное: ограничивать источники, задавать формат, проверять цифры, использовать тест-наборы и правила на критичных этапах. В маркетинге модель стоит воспринимать как станок для черновиков и аналитики-черновика.

Как применить историю ИИ в 2026 году в маркетинге и media buying, не попав в «мини-зиму»?

Переводите ИИ на язык процесса: что ускоряем, какой KPI защищаем, какой риск ошибки допустим, кто владелец качества. Ставьте контур контроля: факты, бренд-гайд, комплаенс, логирование. Учитывайте требования регулирования, например EU AI Act, если работаете с EU-рынками. Тогда ИИ дает прирост пропускной способности, а не хаос и дорогие переделки.

Статьи