Ключевые термины AI/ML/DL: словарь новичка на 2026 год

Содержание
Обновлено: апрель 2026
Коротко: Практический глоссарий из 40+ терминов искусственного интеллекта, машинного обучения и глубокого обучения — без жаргона, для маркетологов, медиабайеров и всех, кто ежедневно использует ИИ. Рынок генеративного ИИ достиг $67 млрд в 2025 году и прогнозируется на уровне $1,3 трлн к 2032. Если нужны аккаунты ChatGPT, Claude или Midjourney прямо сейчас — моментальная доставка, гарантия 1 час.
| ✅ Подходит если | ❌ Не подходит если |
|---|---|
| Используешь ИИ-инструменты, но спотыкаешься о термины в туториалах | У тебя CS-образование и ты читаешь ML-пейперы каждый день |
| Хочешь уверенно обсуждать ИИ с командой | Нужны формальные математические определения |
| Работаешь в маркетинге, медиабаинге или контент-продакшене | Ты строишь продакшен ML-пайплайны |
Искусственный интеллект, машинное обучение и глубокое обучение — три вложенных концепции, стоящие за каждым современным ИИ-инструментом. Понимание словаря за ними — уже не опция, а профессиональный минимум. Этот словарь даёт 40+ терминов с объяснениями, реальными примерами и контекстом того, как каждое понятие проявляется в твоём рабочем процессе.
Что изменилось в терминологии ИИ в 2026
- "Агентный ИИ" (Agentic AI) стал главным баззвордом — компании выпускают ИИ-агентов, автономно выстраивающих цепочки инструментов и действий (OpenAI, Anthropic, Google — 2025-2026).
- Размеры контекстного окна резко выросли: Claude обрабатывает 200K токенов, Gemini достигает 1M — "длина контекста" стала ключевым отличием.
- RAG (Retrieval-Augmented Generation) перешёл из нишевой техники в стандарт для корпоративного использования LLM.
- По данным Bloomberg Intelligence, рынок генеративного ИИ достиг $67 млрд в 2025 — каждой маркетинговой команде нужен этот словарь.
- Годовая выручка OpenAI достигла $12,7 млрд (Bloomberg, март 2026).
Базовые термины ИИ
Искусственный интеллект (AI / ИИ)
Широкая область информатики, создающая системы для выполнения задач, требующих человеческого интеллекта. Включает всё — от чат-ботов на правилах до беспилотных автомобилей. Когда маркетолог говорит "я использую ИИ," обычно имеется в виду конкретный инструмент вроде ChatGPT.
Машинное обучение (ML)
Подмножество ИИ, где системы учатся на данных вместо следования явным правилам. Показываешь системе тысячи примеров — она находит закономерности. Спам-фильтр Gmail — это ML: он научился на миллиардах писем определять спам.
Глубокое обучение (Deep Learning / DL)
Подмножество ML, использующее нейросети с множеством слоёв (поэтому "глубокое"). Работает в распознавании изображений, генерации текста, голосовых помощниках. Каждый крупный ИИ-инструмент 2026 — ChatGPT, Claude, Midjourney, Gemini — основан на глубоком обучении.
Читайте также: Что такое искусственный интеллект и нейросети: простое объяснение без математики
Нейросеть (Neural Network)
Вычислительная система из слоёв связанных узлов (нейронов). Данные проходят через входной, скрытые и выходной слои. Каждая связь имеет вес, корректируемый при обучении. Архитектура за всеми современными ИИ-инструментами.
Большая языковая модель (LLM)
Нейросеть, обученная на огромных текстовых данных, способная генерировать, резюмировать, переводить и рассуждать о тексте. GPT-4, Claude, Gemini и Llama — все LLM. По состоянию на март 2026, ChatGPT (самый популярный LLM-интерфейс) имеет 900+ миллионов еженедельных пользователей.
Трансформер (Transformer)
Архитектура нейросети, изобретённая в 2017 году (статья "Attention Is All You Need"), на которой работают все современные LLM. Обрабатывает все входные токены параллельно, что ускоряет обучение и позволяет работать с длинным контекстом.
Кейс: Команда медиабайеров внедрила ИИ для генерации рекламных текстов, но путала "файнтюнинг" с "промптингом". Потратили $2 000 на файнтюнинг GPT-3.5, хотя простой промпт-инжиниринг дал бы тот же результат бесплатно. Проблема: Непонимание терминологии привело к пустой трате бюджета. Действие: Тимлид создал общий глоссарий и обязал всех его изучить. Результат: В следующем квартале команда сэкономила $3 500 на ненужных API-затратах и сократила время настройки новых ИИ-воркфлоу на 60%.
Нужны аккаунты ИИ для команды? Смотри аккаунты ChatGPT и Claude на npprteam.shop — более 250 000 выполненных заказов, 1 000+ активных клиентов, поддержка отвечает за 5-10 минут.
Термины обучения
Обучение (Training)
Процесс подстройки внутренних весов модели на данных. Обучение GPT-4 стоило более $100 миллионов вычислительных ресурсов. Ты не обучаешь модели — ты используешь предобученные через API или приложения.
Файнтюнинг (Fine-tuning)
Дообучение предобученной модели на меньшем специализированном датасете. Пример: файнтюнинг GPT на логах поддержки твоей компании, чтобы он отвечал в голосе бренда. Стоит значительно дешевле обучения с нуля.
Промпт (Prompt)
Текстовый запрос, который ты даёшь ИИ-модели. "Напиши пост про рекламу в Facebook" — промпт. Качество промпта напрямую определяет качество результата.
Читайте также: ИИ для кода: автодополнение, код-ревью, генерация тестов и анализ уязвимостей
Промпт-инжиниринг (Prompt Engineering)
Навык создания промптов для оптимального ИИ-результата. Техники: назначение роли ("Ты — опытный SEO-копирайтер"), few-shot примеры, chain-of-thought рассуждения, явные ограничения. Востребованный навык в 2026.
Токен (Token)
Базовая единица текста, которую обрабатывают LLM. Примерно 1 токен = 0,75 слова на английском (для русского — меньше из-за более длинных слов). GPT-4o имеет контекстное окно 128K токенов. Тарификация API — по токенам.
Контекстное окно (Context Window)
Максимальный объём текста, который модель "видит" за раз. Claude 3.5 Sonnet — 200K токенов. Gemini 1.5 Pro — до 1M токенов. Большее окно = больше данных в одном разговоре — критично для анализа документов.
Инференс (Inference)
Когда обученная модель генерирует ответ на твой запрос. Каждый раз когда ты отправляешь промпт в ChatGPT — это инференс. Стоимость инференса — постоянные расходы, в отличие от обучения.
Галлюцинация (Hallucination)
Когда ИИ генерирует правдоподобную, но фактически некорректную информацию. LLM не "знают" факты — они предсказывают вероятные последовательности текста. Всегда верифицируй ИИ-результаты, особенно цифры, даты и технические утверждения.
⚠️ Важно: Частота галлюцинаций зависит от модели и темы. Медицинский, юридический и финансовый контент — зона наибольшего риска. Никогда не используй сырой ИИ-результат для решений, связанных с деньгами, здоровьем или юридическим соответствием, без проверки человеком.
RLHF (Reinforcement Learning from Human Feedback)
Техника обучения, где люди-оценщики оценивают ответы модели, а модель учится генерировать те, которые люди предпочитают. Используется OpenAI (ChatGPT), Anthropic (Claude) и Google (Gemini).
Переобучение (Overfitting)
Когда модель запоминает обучающие данные вместо того чтобы учиться общим паттернам. Как студент, зубрящий ответы на конкретные вопросы, но неспособный решить новые задачи.
Обучение с учителем / без учителя / с подкреплением
Три фундаментальных подхода. С учителем: учится на размеченных примерах. Без учителя: находит паттерны без разметки. С подкреплением: учится через сигналы награды/наказания (игровой ИИ, RLHF).
Термины архитектуры и моделей
Параметры (Parameters)
Настраиваемые значения внутри нейросети. У GPT-4 предположительно ~1,7 триллиона параметров. Больше параметров обычно = больше возможностей, но и больше стоимость вычислений.
Веса (Weights)
Числовые значения на связях между нейронами. Корректируются при обучении. Совокупность весов и ЕСТЬ модель — когда "скачиваешь модель," скачиваешь именно веса.
Эмбеддинг (Embedding)
Способ представить текст, изображения или другие данные как вектор (список чисел) в многомерном пространстве. Похожие концепции оказываются рядом. Эмбеддинги работают в семантическом поиске и RAG.
Механизм внимания (Attention)
Ключевая инновация трансформеров. Позволяет модели "обращать внимание" на релевантные части входных данных независимо от расстояния. Поэтому GPT может связать понятие из параграфа 1 с вопросом в параграфе 50.
Мультимодальная модель (Multimodal)
Модель, обрабатывающая несколько типов входных данных — текст, изображения, аудио, видео. GPT-4o мультимодален: можно загрузить картинку и задать вопросы. Claude 3.5 обрабатывает изображения и PDF вместе с текстом.
Диффузионная модель (Diffusion Model)
Архитектура за генераторами изображений вроде Midjourney, DALL-E, Stable Diffusion. Начинает с шума и постепенно убирает его, управляемая текстовым промптом, пока не появится связное изображение. Не то же самое что LLM.
Прикладные термины ИИ
RAG (Retrieval-Augmented Generation)
Техника, где LLM извлекает релевантные документы из твоей базы данных перед генерацией ответа — привязывая его к реальным данным вместо опоры на знания из обучения. Стандартный корпоративный паттерн в 2026. Значительно снижает галлюцинации.
ИИ-агент (AI Agent)
Система, где LLM автономно планирует, использует инструменты (поиск, выполнение кода, API) и совершает действия для достижения цели. Больше чем чат-бот — агенты могут бронировать билеты, анализировать данные, выполнять многошаговые задачи. Доминирующий ИИ-тренд 2026.
Файнтюнинг vs RAG
| Аспект | Файнтюнинг | RAG |
|---|---|---|
| Что меняется | Веса модели | Входной контекст |
| Стоимость | $50-$10 000+ | Минимальная (хостинг vector DB) |
| Свежесть данных | Статична после обучения | Обновления в реальном времени |
| Лучше для | Адаптация стиля/тона | Ответы на основе знаний |
API (Application Programming Interface)
Способ программного взаимодействия с ИИ-моделями. Вместо набора текста в интерфейсе ChatGPT, ты отправляешь запросы через API и получаешь ответы в своём приложении. Тарификация — по токенам.
Читайте также: Как оценивать результат ИИ: метрики качества, полезность и доверие
Температура (Temperature)
Параметр, контролирующий случайность ИИ-вывода. Температура 0 = детерминированный результат. Температура 1 = креативный и разнообразный. Для фактических задач — низкая. Для брейнсторминга — высокая.
Zero-shot / Few-shot обучение
Zero-shot: модель выполняет задачу без примеров ("Классифицируй это письмо"). Few-shot: даёшь 2-5 примеров в промпте. Few-shot обычно улучшает точность на 10-30%.
Chain-of-thought (CoT)
Техника промптинга, где просишь модель "думать пошагово". Заставляет модель показывать ход рассуждений, что даёт более точные ответы для математики, логики и сложного анализа.
Кейс: Соло-медиабайер использовал chain-of-thought промптинг с Claude для анализа 200 рекламных кампаний и выявления 3 общих черт лучших из них. Вручную анализ занял бы 6-8 часов. С CoT промптингом — 25 минут. Инсайт: топ-кампании использовали видео до 15 секунд с вопросом в первом кадре — это дало рост CTR на 34% в следующей пачке. Проблема: Начальный промпт ("проанализируй кампании") дал общие инсайты. Действие: Добавил "Думай пошагово. Сначала сгруппируй кампании по результатам. Затем определи..." Результат: Конкретные, применимые инсайты за 25 минут вместо 6-8 часов.
Бизнес и этика
Предвзятость ИИ (AI Bias)
Когда ИИ выдаёт несправедливо искажённые результаты из-за предвзятых обучающих данных. Пример: ИИ для найма, обученный на данных где 90% нанятых — мужчины, будет дискриминировать женщин. Критично проверять в любом клиентском ИИ-приложении.
Дипфейк (Deepfake)
ИИ-генерированные синтетические медиа — фальшивые видео, изображения или аудиозаписи реальных людей. Растущая проблема для рекламных платформ. Meta и Google маркируют ИИ-контент в рекламе.
Генеративный ИИ (Generative AI)
ИИ, создающий новый контент — текст, изображения, видео, музыку, код — а не просто классифицирующий существующие данные. ChatGPT, Midjourney и Sora — генеративный ИИ. Рынок $67 млрд в 2025 — почти полностью генеративный ИИ.
Открытый код vs закрытый код
Открытый: веса модели публично доступны. Llama (Meta), Mistral, Stable Diffusion. Закрытый: доступ только через API. GPT-4, Claude, Gemini. Открытый даёт контроль; закрытый — удобство.
⚠️ Важно: Использование open-source моделей требует серьёзной технической инфраструктуры. Для большинства маркетологов и медиабайеров закрытые API (ChatGPT, Claude) практичнее. Доступ к аккаунту — единственный барьер, и именно его решают аккаунты ИИ на npprteam.shop.
Термины измерения
Бенчмарк (Benchmark)
Стандартизированный тест для сравнения ИИ-моделей. Основные: MMLU (знания), HumanEval (код), MT-Bench (качество диалога). "GPT-4 набирает 86% на MMLU" — это результат бенчмарка.
Латентность (Latency)
Время от отправки промпта до получения первого токена ответа. GPT-4o: ~200мс. Claude 3.5 Sonnet: ~300мс. Критично для чат-ботов и живой поддержки.
Нужны аккаунты ИИ для контент-продакшена или медиабаинга? Смотри инструменты генерации фото и видео — Midjourney, DALL-E и другие с моментальной доставкой.
Быстрый старт: чеклист
- [ ] Прочитай все термины в этом глоссарии (сохрани в закладки)
- [ ] Определи 10 терминов, наиболее релевантных твоей ежедневной работе
- [ ] Попробуй объяснить коллеге LLM, промпт-инжиниринг и RAG
- [ ] Зарегистрируйся в ChatGPT или Claude и поэкспериментируй с температурой
- [ ] Используй chain-of-thought промптинг на следующей сложной задаче
- [ ] Возвращайся к глоссарию ежемесячно — словарь ИИ эволюционирует быстро
Читайте также
- Что такое искусственный интеллект и нейросети: простое объяснение б...
- История ИИ: от экспертных систем до генеративных моделей
- Как нейросеть учится: обучение, валидация и переобучение на бытовых...































