A
- AI (Artificial Intelligence) – технологии, позволяющие машинам имитировать человеческое мышление и выполнять интеллектуальные задачи.
- AGI (Artificial General Intelligence) – гипотетический ИИ, способный решать любые когнитивные задачи на уровне человека.
- AutoML (Automated Machine Learning) – автоматизация процессов построения и настройки ML-моделей без глубокого участия экспертов.
- Attention Mechanism – архитектурный компонент нейросетей, определяющий важность частей входных данных (ключевая технология в трансформерах).
B
- Backpropagation – алгоритм обучения нейросетей через обратное распространение ошибки для корректировки весов.
- Bias (Смещение) – систематическая ошибка модели, вызванная ограничениями в данных или алгоритмах.
- Batch Normalization – техника ускорения обучения нейросетей через нормализацию входных данных пакетами.
C
- CNN (Convolutional Neural Network) – сверточные нейросети для обработки изображений и распознавания паттернов.
- Computer Vision – направление ИИ по анализу и интерпретации визуальных данных (изображений, видео).
- ChatGPT – чат-бот на архитектуре GPT, использующий трансформеры для генерации текстовых ответов.
D
- Deep Learning – подраздел машинного обучения, основанный на многослойных нейронных сетях.
- Data Augmentation – увеличение обучающей выборки через преобразование исходных данных (повороты, шумы и т.д.).
- Diffusion Models – генеративные модели, создающие данные через постепенное удаление шума (например, Stable Diffusion).
E
- Embedding – векторное представление данных (слов, изображений) в числовой форме для обработки моделями.
- Explainable AI (XAI) – подход к созданию интерпретируемых ИИ-моделей с прозрачной логикой решений.
F
- Few-shot Learning – обучение модели на крайне малом количестве примеров (5-10 образцов).
- Federated Learning – распределённое обучение без централизации данных (сохраняет конфиденциальность).
G
- GAN (Generative Adversarial Network) – архитектура из генератора и дискриминатора для создания реалистичных данных.
- GPT (Generative Pre-trained Transformer) – семейство языковых моделей на основе трансформеров (ChatGPT, GPT-4).
H
- Hallucination – генерация ИИ ложной или вымышленной информации, выдаваемой за правдивую.
- Hyperparameter Tuning – оптимизация параметров модели (например, скорость обучения, количество слоёв).
I
- Inference – процесс применения обученной модели к новым данным для получения прогнозов.
- IoT (Internet of Things) + AI – интеграция ИИ с устройствами «умного» интернета вещей для анализа данных.
K
- Knowledge Graph – семантическая сеть связанных сущностей (используется в поисковых системах).
L
- LLM (Large Language Model) – крупная языковая модель, обученная на обширных текстовых корпусах.
- LSTM (Long Short-Term Memory) – тип RNN для обработки долгосрочных зависимостей в последовательностях.
M
- MLOps (Machine Learning Operations) – практики развёртывания и поддержки ML-моделей в продакшене.
- Multimodal AI – системы, обрабатывающие разные типы данных (текст + изображения + аудио).
N
- NLP (Natural Language Processing) – технологии обработки и генерации естественного языка.
- Neural Network Pruning – удаление избыточных связей в нейросетях для оптимизации.
O
- Overfitting – переобучение, когда модель «запоминает» обучающие данные вместо выявления паттернов.
- OCR (Optical Character Recognition) – распознавание текста на изображениях (сканы, фото документов).
P
- Prompt Engineering – техника составления эффективных запросов для языковых моделей.
- PyTorch/TensorFlow – ведущие фреймворки для разработки ML-моделей.
R
- Reinforcement Learning – обучение через систему «наград» за правильные действия (используется в робототехнике, играх).
- RNN (Recurrent Neural Network) – класс нейросетей для обработки последовательностей (текст, временные ряды).
S
- Stable Diffusion – модель генерации изображений по текстовому описанию на основе диффузии.
- Swarm Intelligence – алгоритмы, имитирующие коллективное поведение (муравьиные колонии, стаи птиц).
T
- Transformer – архитектура нейросетей с механизмом внимания (основа GPT, BERT).
- Transfer Learning – использование предобученных моделей для решения новых задач с минимальным дообучением.
U
- Underfitting – ситуация, когда модель слишком упрощена и не выявляет закономерностей в данных.
V
- Vector Database – специализированные БД для хранения и поиска векторных представлений (используются в RAG).
Z
- Zero-shot Learning – способность модели решать задачи без примеров обучения (только на основе описания).