Уровень переобучения (Overfitting)

Что такое Уровень переобучения (Overfitting)?

Показатель степени, в которой модель машинного обучения чрезмерно адаптируется к обучающим данным, теряя при этом способность обобщать на новых, ранее не встречавшихся примерах.

В контексте машинного обучения переобучение (overfitting) — одна из ключевых проблем, с которой сталкиваются разработчики моделей. Суть в том, что модель «запоминает» обучающую выборку вместо того, чтобы выявлять общие закономерности, полезные для предсказаний на новых данных.

Представьте студента, который заучивает ответы на экзаменационные билеты слово в слово, не понимая сути предмета. На экзамене, где вопросы сформулированы иначе или касаются смежных тем, такой студент окажется беспомощен — несмотря на отличную подготовку к конкретным билетам. Аналогично переобученная модель отлично «отвечает» на обучающие данные, но проваливается на тестовых.

Исторический контекст

Проблема переобучения известна с ранних этапов развития машинного обучения. Уже в 1970–1980‑х годах исследователи обратили внимание на то, что усложнение моделей (увеличение числа параметров) не всегда ведёт к улучшению качества на новых данных. В 1986 году в работе Дэвида Румельхарта, Джеффри Хинтона и Рональда Уильямса по обратному распространению ошибки (backpropagation) обсуждались вопросы регуляризации как способа борьбы с переобучением. С развитием глубоких нейронных сетей в 2010‑х годах проблема стала ещё актуальнее из‑за огромного числа параметров в моделях.

Смежные понятия

  • Недообучение (underfitting) — противоположная ситуация, когда модель слишком проста и не может уловить даже основные закономерности в данных.
  • Обобщающая способность (generalization) — способность модели хорошо работать на новых данных; переобучение снижает обобщающую способность.
  • Регуляризация — методы, направленные на предотвращение переобучения (L1, L2, dropout и др.).

Примеры использования

  • В свёрточных нейронных сетях (CNN) для классификации изображений переобучение может возникнуть, если сеть имеет слишком много слоёв и фильтров, а объём обучающей выборки невелик.
  • В задачах обработки естественного языка (NLP) трансформеры (например, BERT, GPT) могут переобучиться, если их обучать на слишком малом корпусе текстов без регуляризации.
  • Для диагностики уровня переобучения сравнивают метрики качества (accuracy, F1‑score и др.) на обучающей и валидационной выборках: если на обучающей выборке метрика близка к 100 %, а на валидационной — существенно ниже, это признак переобучения.

Методы борьбы с переобучением

  • увеличение объёма обучающих данных;
  • регуляризация (L1/L2, dropout);
  • ранняя остановка обучения (early stopping);
  • аугментация данных (data augmentation);
  • уменьшение сложности модели (сокращение числа слоёв/нейронов).

Авторизация