Техническая поддержка

Ключевые термины AI/ML/DL: словарь новичка на 2026 год

Ключевые термины AI/ML/DL: словарь новичка на 2026 год
0.00
(0)
Просмотров: 57421
Время прочтения: ~ 10 мин.
Нейросети
13.04.26
Редакция NPPR TEAM
Содержание

Обновлено: апрель 2026

Коротко: Практический глоссарий из 40+ терминов искусственного интеллекта, машинного обучения и глубокого обучения — без жаргона, для маркетологов, медиабайеров и всех, кто ежедневно использует ИИ. Рынок генеративного ИИ достиг $67 млрд в 2025 году и прогнозируется на уровне $1,3 трлн к 2032. Если нужны аккаунты ChatGPT, Claude или Midjourney прямо сейчас — моментальная доставка, гарантия 1 час.

✅ Подходит если❌ Не подходит если
Используешь ИИ-инструменты, но спотыкаешься о термины в туториалахУ тебя CS-образование и ты читаешь ML-пейперы каждый день
Хочешь уверенно обсуждать ИИ с командойНужны формальные математические определения
Работаешь в маркетинге, медиабаинге или контент-продакшенеТы строишь продакшен ML-пайплайны

Искусственный интеллект, машинное обучение и глубокое обучение — три вложенных концепции, стоящие за каждым современным ИИ-инструментом. Понимание словаря за ними — уже не опция, а профессиональный минимум. Этот словарь даёт 40+ терминов с объяснениями, реальными примерами и контекстом того, как каждое понятие проявляется в твоём рабочем процессе.

Что изменилось в терминологии ИИ в 2026

  • "Агентный ИИ" (Agentic AI) стал главным баззвордом — компании выпускают ИИ-агентов, автономно выстраивающих цепочки инструментов и действий (OpenAI, Anthropic, Google — 2025-2026).
  • Размеры контекстного окна резко выросли: Claude обрабатывает 200K токенов, Gemini достигает 1M — "длина контекста" стала ключевым отличием.
  • RAG (Retrieval-Augmented Generation) перешёл из нишевой техники в стандарт для корпоративного использования LLM.
  • По данным Bloomberg Intelligence, рынок генеративного ИИ достиг $67 млрд в 2025 — каждой маркетинговой команде нужен этот словарь.
  • Годовая выручка OpenAI достигла $12,7 млрд (Bloomberg, март 2026).

Базовые термины ИИ

Искусственный интеллект (AI / ИИ)

Широкая область информатики, создающая системы для выполнения задач, требующих человеческого интеллекта. Включает всё — от чат-ботов на правилах до беспилотных автомобилей. Когда маркетолог говорит "я использую ИИ," обычно имеется в виду конкретный инструмент вроде ChatGPT.

Машинное обучение (ML)

Подмножество ИИ, где системы учатся на данных вместо следования явным правилам. Показываешь системе тысячи примеров — она находит закономерности. Спам-фильтр Gmail — это ML: он научился на миллиардах писем определять спам.

Глубокое обучение (Deep Learning / DL)

Подмножество ML, использующее нейросети с множеством слоёв (поэтому "глубокое"). Работает в распознавании изображений, генерации текста, голосовых помощниках. Каждый крупный ИИ-инструмент 2026 — ChatGPT, Claude, Midjourney, Gemini — основан на глубоком обучении.

Читайте также: Что такое искусственный интеллект и нейросети: простое объяснение без математики

Нейросеть (Neural Network)

Вычислительная система из слоёв связанных узлов (нейронов). Данные проходят через входной, скрытые и выходной слои. Каждая связь имеет вес, корректируемый при обучении. Архитектура за всеми современными ИИ-инструментами.

Большая языковая модель (LLM)

Нейросеть, обученная на огромных текстовых данных, способная генерировать, резюмировать, переводить и рассуждать о тексте. GPT-4, Claude, Gemini и Llama — все LLM. По состоянию на март 2026, ChatGPT (самый популярный LLM-интерфейс) имеет 900+ миллионов еженедельных пользователей.

Трансформер (Transformer)

Архитектура нейросети, изобретённая в 2017 году (статья "Attention Is All You Need"), на которой работают все современные LLM. Обрабатывает все входные токены параллельно, что ускоряет обучение и позволяет работать с длинным контекстом.

Кейс: Команда медиабайеров внедрила ИИ для генерации рекламных текстов, но путала "файнтюнинг" с "промптингом". Потратили $2 000 на файнтюнинг GPT-3.5, хотя простой промпт-инжиниринг дал бы тот же результат бесплатно. Проблема: Непонимание терминологии привело к пустой трате бюджета. Действие: Тимлид создал общий глоссарий и обязал всех его изучить. Результат: В следующем квартале команда сэкономила $3 500 на ненужных API-затратах и сократила время настройки новых ИИ-воркфлоу на 60%.

Нужны аккаунты ИИ для команды? Смотри аккаунты ChatGPT и Claude на npprteam.shop — более 250 000 выполненных заказов, 1 000+ активных клиентов, поддержка отвечает за 5-10 минут.

Термины обучения

Обучение (Training)

Процесс подстройки внутренних весов модели на данных. Обучение GPT-4 стоило более $100 миллионов вычислительных ресурсов. Ты не обучаешь модели — ты используешь предобученные через API или приложения.

Файнтюнинг (Fine-tuning)

Дообучение предобученной модели на меньшем специализированном датасете. Пример: файнтюнинг GPT на логах поддержки твоей компании, чтобы он отвечал в голосе бренда. Стоит значительно дешевле обучения с нуля.

Промпт (Prompt)

Текстовый запрос, который ты даёшь ИИ-модели. "Напиши пост про рекламу в Facebook" — промпт. Качество промпта напрямую определяет качество результата.

Читайте также: ИИ для кода: автодополнение, код-ревью, генерация тестов и анализ уязвимостей

Промпт-инжиниринг (Prompt Engineering)

Навык создания промптов для оптимального ИИ-результата. Техники: назначение роли ("Ты — опытный SEO-копирайтер"), few-shot примеры, chain-of-thought рассуждения, явные ограничения. Востребованный навык в 2026.

Токен (Token)

Базовая единица текста, которую обрабатывают LLM. Примерно 1 токен = 0,75 слова на английском (для русского — меньше из-за более длинных слов). GPT-4o имеет контекстное окно 128K токенов. Тарификация API — по токенам.

Контекстное окно (Context Window)

Максимальный объём текста, который модель "видит" за раз. Claude 3.5 Sonnet — 200K токенов. Gemini 1.5 Pro — до 1M токенов. Большее окно = больше данных в одном разговоре — критично для анализа документов.

Инференс (Inference)

Когда обученная модель генерирует ответ на твой запрос. Каждый раз когда ты отправляешь промпт в ChatGPT — это инференс. Стоимость инференса — постоянные расходы, в отличие от обучения.

Галлюцинация (Hallucination)

Когда ИИ генерирует правдоподобную, но фактически некорректную информацию. LLM не "знают" факты — они предсказывают вероятные последовательности текста. Всегда верифицируй ИИ-результаты, особенно цифры, даты и технические утверждения.

⚠️ Важно: Частота галлюцинаций зависит от модели и темы. Медицинский, юридический и финансовый контент — зона наибольшего риска. Никогда не используй сырой ИИ-результат для решений, связанных с деньгами, здоровьем или юридическим соответствием, без проверки человеком.

RLHF (Reinforcement Learning from Human Feedback)

Техника обучения, где люди-оценщики оценивают ответы модели, а модель учится генерировать те, которые люди предпочитают. Используется OpenAI (ChatGPT), Anthropic (Claude) и Google (Gemini).

Переобучение (Overfitting)

Когда модель запоминает обучающие данные вместо того чтобы учиться общим паттернам. Как студент, зубрящий ответы на конкретные вопросы, но неспособный решить новые задачи.

Обучение с учителем / без учителя / с подкреплением

Три фундаментальных подхода. С учителем: учится на размеченных примерах. Без учителя: находит паттерны без разметки. С подкреплением: учится через сигналы награды/наказания (игровой ИИ, RLHF).

Термины архитектуры и моделей

Параметры (Parameters)

Настраиваемые значения внутри нейросети. У GPT-4 предположительно ~1,7 триллиона параметров. Больше параметров обычно = больше возможностей, но и больше стоимость вычислений.

Веса (Weights)

Числовые значения на связях между нейронами. Корректируются при обучении. Совокупность весов и ЕСТЬ модель — когда "скачиваешь модель," скачиваешь именно веса.

Эмбеддинг (Embedding)

Способ представить текст, изображения или другие данные как вектор (список чисел) в многомерном пространстве. Похожие концепции оказываются рядом. Эмбеддинги работают в семантическом поиске и RAG.

Механизм внимания (Attention)

Ключевая инновация трансформеров. Позволяет модели "обращать внимание" на релевантные части входных данных независимо от расстояния. Поэтому GPT может связать понятие из параграфа 1 с вопросом в параграфе 50.

Мультимодальная модель (Multimodal)

Модель, обрабатывающая несколько типов входных данных — текст, изображения, аудио, видео. GPT-4o мультимодален: можно загрузить картинку и задать вопросы. Claude 3.5 обрабатывает изображения и PDF вместе с текстом.

Диффузионная модель (Diffusion Model)

Архитектура за генераторами изображений вроде Midjourney, DALL-E, Stable Diffusion. Начинает с шума и постепенно убирает его, управляемая текстовым промптом, пока не появится связное изображение. Не то же самое что LLM.

Прикладные термины ИИ

RAG (Retrieval-Augmented Generation)

Техника, где LLM извлекает релевантные документы из твоей базы данных перед генерацией ответа — привязывая его к реальным данным вместо опоры на знания из обучения. Стандартный корпоративный паттерн в 2026. Значительно снижает галлюцинации.

ИИ-агент (AI Agent)

Система, где LLM автономно планирует, использует инструменты (поиск, выполнение кода, API) и совершает действия для достижения цели. Больше чем чат-бот — агенты могут бронировать билеты, анализировать данные, выполнять многошаговые задачи. Доминирующий ИИ-тренд 2026.

Файнтюнинг vs RAG

АспектФайнтюнингRAG
Что меняетсяВеса моделиВходной контекст
Стоимость$50-$10 000+Минимальная (хостинг vector DB)
Свежесть данныхСтатична после обученияОбновления в реальном времени
Лучше дляАдаптация стиля/тонаОтветы на основе знаний

API (Application Programming Interface)

Способ программного взаимодействия с ИИ-моделями. Вместо набора текста в интерфейсе ChatGPT, ты отправляешь запросы через API и получаешь ответы в своём приложении. Тарификация — по токенам.

Читайте также: Как оценивать результат ИИ: метрики качества, полезность и доверие

Температура (Temperature)

Параметр, контролирующий случайность ИИ-вывода. Температура 0 = детерминированный результат. Температура 1 = креативный и разнообразный. Для фактических задач — низкая. Для брейнсторминга — высокая.

Zero-shot / Few-shot обучение

Zero-shot: модель выполняет задачу без примеров ("Классифицируй это письмо"). Few-shot: даёшь 2-5 примеров в промпте. Few-shot обычно улучшает точность на 10-30%.

Chain-of-thought (CoT)

Техника промптинга, где просишь модель "думать пошагово". Заставляет модель показывать ход рассуждений, что даёт более точные ответы для математики, логики и сложного анализа.

Кейс: Соло-медиабайер использовал chain-of-thought промптинг с Claude для анализа 200 рекламных кампаний и выявления 3 общих черт лучших из них. Вручную анализ занял бы 6-8 часов. С CoT промптингом — 25 минут. Инсайт: топ-кампании использовали видео до 15 секунд с вопросом в первом кадре — это дало рост CTR на 34% в следующей пачке. Проблема: Начальный промпт ("проанализируй кампании") дал общие инсайты. Действие: Добавил "Думай пошагово. Сначала сгруппируй кампании по результатам. Затем определи..." Результат: Конкретные, применимые инсайты за 25 минут вместо 6-8 часов.

Бизнес и этика

Предвзятость ИИ (AI Bias)

Когда ИИ выдаёт несправедливо искажённые результаты из-за предвзятых обучающих данных. Пример: ИИ для найма, обученный на данных где 90% нанятых — мужчины, будет дискриминировать женщин. Критично проверять в любом клиентском ИИ-приложении.

Дипфейк (Deepfake)

ИИ-генерированные синтетические медиа — фальшивые видео, изображения или аудиозаписи реальных людей. Растущая проблема для рекламных платформ. Meta и Google маркируют ИИ-контент в рекламе.

Генеративный ИИ (Generative AI)

ИИ, создающий новый контент — текст, изображения, видео, музыку, код — а не просто классифицирующий существующие данные. ChatGPT, Midjourney и Sora — генеративный ИИ. Рынок $67 млрд в 2025 — почти полностью генеративный ИИ.

Открытый код vs закрытый код

Открытый: веса модели публично доступны. Llama (Meta), Mistral, Stable Diffusion. Закрытый: доступ только через API. GPT-4, Claude, Gemini. Открытый даёт контроль; закрытый — удобство.

⚠️ Важно: Использование open-source моделей требует серьёзной технической инфраструктуры. Для большинства маркетологов и медиабайеров закрытые API (ChatGPT, Claude) практичнее. Доступ к аккаунту — единственный барьер, и именно его решают аккаунты ИИ на npprteam.shop.

Термины измерения

Бенчмарк (Benchmark)

Стандартизированный тест для сравнения ИИ-моделей. Основные: MMLU (знания), HumanEval (код), MT-Bench (качество диалога). "GPT-4 набирает 86% на MMLU" — это результат бенчмарка.

Латентность (Latency)

Время от отправки промпта до получения первого токена ответа. GPT-4o: ~200мс. Claude 3.5 Sonnet: ~300мс. Критично для чат-ботов и живой поддержки.

Нужны аккаунты ИИ для контент-продакшена или медиабаинга? Смотри инструменты генерации фото и видео — Midjourney, DALL-E и другие с моментальной доставкой.

Быстрый старт: чеклист

  • [ ] Прочитай все термины в этом глоссарии (сохрани в закладки)
  • [ ] Определи 10 терминов, наиболее релевантных твоей ежедневной работе
  • [ ] Попробуй объяснить коллеге LLM, промпт-инжиниринг и RAG
  • [ ] Зарегистрируйся в ChatGPT или Claude и поэкспериментируй с температурой
  • [ ] Используй chain-of-thought промптинг на следующей сложной задаче
  • [ ] Возвращайся к глоссарию ежемесячно — словарь ИИ эволюционирует быстро

Читайте также

  • Что такое искусственный интеллект и нейросети: простое объяснение б...
  • История ИИ: от экспертных систем до генеративных моделей
  • Как нейросеть учится: обучение, валидация и переобучение на бытовых...

Что читать дальше

Другие статьи

Часто задаваемые вопросы

Чем отличаются AI, ML и DL?

AI — самая широкая категория: любая система, имитирующая интеллект. Машинное обучение — подмножество AI, обучающееся на данных. Глубокое обучение — подмножество ML, использующее многослойные нейросети. Три вложенных круга: AI содержит ML, ML содержит DL.

Что такое LLM?

LLM расшифровывается как Large Language Model — большая языковая модель, обученная на огромных текстовых данных для генерации, анализа и трансформации текста. GPT-4, Claude, Gemini и Llama — всё это LLM. ChatGPT в марте 2026 имеет более 900 миллионов еженедельных пользователей.

Чем промпт отличается от промпт-инжиниринга?

Промпт — текстовый запрос к ИИ-модели. Промпт-инжиниринг — навык создания промптов для оптимальных результатов с использованием техник: роли, примеры, chain-of-thought, ограничения. Хороший промпт-инжиниринг может улучшить качество на 50-200%.

Что такое RAG и зачем он нужен?

RAG (Retrieval-Augmented Generation) — техника, где ИИ ищет релевантную информацию в твоей базе данных перед генерацией ответа. Привязывает ответы к реальным данным вместо знаний из обучения, значительно снижая галлюцинации. Стандарт для бизнеса в 2026.

Что такое токены и почему это важно?

Токены — базовые единицы текста для LLM. Примерно 0,75 слова на токен (английский). Тарификация API — по токенам, поэтому понимание токенов помогает оценить затраты. Контекстные окна измеряются в токенах: GPT-4o — 128K токенов (~96 000 слов).

Что такое галлюцинация ИИ?

Галлюцинация — когда ИИ генерирует правдоподобную, но фактически некорректную информацию. LLM предсказывают вероятные последовательности текста, а не проверяют факты. Всегда проверяй ИИ-результаты, особенно в финансовом, медицинском и юридическом контексте.

Чем файнтюнинг отличается от промптов?

Промптинг меняет способ запроса — сама модель не меняется. Файнтюнинг дообучает модель на новых данных, перманентно изменяя её поведение. Промптинг бесплатен и мгновенен; файнтюнинг стоит $50-$10 000+ и занимает часы. Большинству нужен только промптинг.

Что значит "open source ИИ" на практике?

Open source ИИ означает, что веса модели доступны для скачивания — можно запустить модель на своём оборудовании. Llama (Meta) и Mistral — open source. Практически это требует технической инфраструктуры. Для бизнес-пользователей закрытые API вроде ChatGPT и Claude практичнее.

Об авторе

Редакция NPPR TEAM
Редакция NPPR TEAM

Материалы подготовлены командой медиабайеров NPPR TEAM — 15+ специалистов с суммарным опытом более 7 лет в закупке трафика. Команда ежедневно работает с TikTok Ads, Facebook Ads, Google Ads, тизерными сетями и SEO в регионах Европы, США, Азии и Ближнего Востока. С 2019 года выполнено более 30 000 заказов на платформе NPPRTEAM.SHOP.

Статьи