Устойчивость к выбросам (Outlier Robustness)
Что такое Устойчивость к выбросам (Outlier Robustness)?
Свойство модели машинного обучения сохранять качество работы (точность, обобщающую способность) при наличии в данных аномальных значений (выбросов), которые заметно отличаются от основной массы наблюдений.
Аналогия из бытового мира
Представьте повара, который готовит по рецепту, но однажды находит в пакете с мукой крупный камень. Если повар не умеет отличать ингредиенты от посторонних предметов (не устойчив к «выбросам»), он может добавить камень в тесто — и блюдо будет испорчено. Устойчивость к выбросам в ML — это как умение повара заметить и удалить камень, чтобы рецепт сработал как надо.
Исторический контекст
Проблема устойчивости к выбросам обсуждается в статистике и машинном обучении с середины XX века. В классической статистике для борьбы с выбросами разрабатывались робастные (устойчивые) методы оценки параметров (например, медиана вместо среднего). В ML интерес к устойчивости возрос с развитием сложных моделей (нейросети, ансамбли), которые легко переобучаются на аномалии. В 2010‑х годах появились специализированные методы робастного обучения (robust training), включая:
- регуляризацию, устойчивую к выбросам;
- алгоритмы обнаружения и фильтрации аномалий перед обучением;
- модификации функций потерь (например, Huber loss), менее чувствительные к экстремальным значениям.
Смежные понятия
- Робастность (robustness) — более широкое понятие, включающее устойчивость не только к выбросам, но и к шуму, сдвигам распределения, атакам и др.
- Устойчивость к шуму (noise robustness) — фокусируется на случайных искажениях данных, а не на редких экстремальных значениях.
- Обобщающая способность (generalization) — способность модели работать на новых данных; устойчивость к выбросам — один из факторов, влияющих на обобщение.
Примеры использования
- В задачах регрессии используют Huber loss или quantile loss вместо MSE, чтобы снизить влияние выбросов на обучение.
- В предобработке данных применяют методы обнаружения выбросов (Isolation Forest, DBSCAN, Z‑score фильтрация) перед обучением модели.
- В нейросетевых архитектурах для компьютерного зрения используют робастные нормализации (например, GroupNorm вместо BatchNorm, который чувствителен к выбросам в мини‑батчах).
- В задачах обнаружения аномалий сами выбросы — объект интереса, и модели (например, Autoencoder, One‑Class SVM) учатся их выделять, а не игнорировать.
