Глоссарий по AI

0
312

A

  • AI (Artificial Intelligence) – технологии, позволяющие машинам имитировать человеческое мышление и выполнять интеллектуальные задачи.
  • AGI (Artificial General Intelligence) – гипотетический ИИ, способный решать любые когнитивные задачи на уровне человека.
  • AutoML (Automated Machine Learning) – автоматизация процессов построения и настройки ML-моделей без глубокого участия экспертов.
  • Attention Mechanism – архитектурный компонент нейросетей, определяющий важность частей входных данных (ключевая технология в трансформерах).

B

  • Backpropagation – алгоритм обучения нейросетей через обратное распространение ошибки для корректировки весов.
  • Bias (Смещение) – систематическая ошибка модели, вызванная ограничениями в данных или алгоритмах.
  • Batch Normalization – техника ускорения обучения нейросетей через нормализацию входных данных пакетами.

C

  • CNN (Convolutional Neural Network) – сверточные нейросети для обработки изображений и распознавания паттернов.
  • Computer Vision – направление ИИ по анализу и интерпретации визуальных данных (изображений, видео).
  • ChatGPT – чат-бот на архитектуре GPT, использующий трансформеры для генерации текстовых ответов.

D

  • Deep Learning – подраздел машинного обучения, основанный на многослойных нейронных сетях.
  • Data Augmentation – увеличение обучающей выборки через преобразование исходных данных (повороты, шумы и т.д.).
  • Diffusion Models – генеративные модели, создающие данные через постепенное удаление шума (например, Stable Diffusion).

E

  • Embedding – векторное представление данных (слов, изображений) в числовой форме для обработки моделями.
  • Explainable AI (XAI) – подход к созданию интерпретируемых ИИ-моделей с прозрачной логикой решений.

F

  • Few-shot Learning – обучение модели на крайне малом количестве примеров (5-10 образцов).
  • Federated Learning – распределённое обучение без централизации данных (сохраняет конфиденциальность).

G

  • GAN (Generative Adversarial Network) – архитектура из генератора и дискриминатора для создания реалистичных данных.
  • GPT (Generative Pre-trained Transformer) – семейство языковых моделей на основе трансформеров (ChatGPT, GPT-4).

H

  • Hallucination – генерация ИИ ложной или вымышленной информации, выдаваемой за правдивую.
  • Hyperparameter Tuning – оптимизация параметров модели (например, скорость обучения, количество слоёв).

I

  • Inference – процесс применения обученной модели к новым данным для получения прогнозов.
  • IoT (Internet of Things) + AI – интеграция ИИ с устройствами «умного» интернета вещей для анализа данных.

K

  • Knowledge Graph – семантическая сеть связанных сущностей (используется в поисковых системах).

L

  • LLM (Large Language Model) – крупная языковая модель, обученная на обширных текстовых корпусах.
  • LSTM (Long Short-Term Memory) – тип RNN для обработки долгосрочных зависимостей в последовательностях.

M

  • MLOps (Machine Learning Operations) – практики развёртывания и поддержки ML-моделей в продакшене.
  • Multimodal AI – системы, обрабатывающие разные типы данных (текст + изображения + аудио).

N

  • NLP (Natural Language Processing) – технологии обработки и генерации естественного языка.
  • Neural Network Pruning – удаление избыточных связей в нейросетях для оптимизации.

O

  • Overfitting – переобучение, когда модель «запоминает» обучающие данные вместо выявления паттернов.
  • OCR (Optical Character Recognition) – распознавание текста на изображениях (сканы, фото документов).

P

  • Prompt Engineering – техника составления эффективных запросов для языковых моделей.
  • PyTorch/TensorFlow – ведущие фреймворки для разработки ML-моделей.

R

  • Reinforcement Learning – обучение через систему «наград» за правильные действия (используется в робототехнике, играх).
  • RNN (Recurrent Neural Network) – класс нейросетей для обработки последовательностей (текст, временные ряды).

S

  • Stable Diffusion – модель генерации изображений по текстовому описанию на основе диффузии.
  • Swarm Intelligence – алгоритмы, имитирующие коллективное поведение (муравьиные колонии, стаи птиц).

T

  • Transformer – архитектура нейросетей с механизмом внимания (основа GPT, BERT).
  • Transfer Learning – использование предобученных моделей для решения новых задач с минимальным дообучением.

U

  • Underfitting – ситуация, когда модель слишком упрощена и не выявляет закономерностей в данных.

V

  • Vector Database – специализированные БД для хранения и поиска векторных представлений (используются в RAG).

Z

  • Zero-shot Learning – способность модели решать задачи без примеров обучения (только на основе описания).