Веса связей (Connection Weights)

Что такое Веса связей (Connection Weights)?

Числовые параметры в нейронных сетях, определяющие силу влияния сигнала от одного нейрона на другой; они задают, насколько значимым будет вклад входного значения в итоговый результат вычислений на следующем слое сети.

Представьте, что вы решаете, стоит ли брать зонт, ориентируясь на несколько признаков: прогноз погоды в приложении, вид за окном и воспоминания о вчерашнем ливне. Каждый из этих факторов имеет для вас свою «важность»: например, прогноз погоды может влиять на решение сильнее, чем воспоминания о вчерашнем дне. Веса связей в нейросети работают похоже: они «оценивают», насколько каждый входной сигнал значим для принятия решения на следующем этапе вычислений.

Исторический контекст

Исторически идея взвешенных связей восходит к ранним моделям нейронов, таким как перцептрон Фрэнка Розенблатта (1958 г.). В перцептроне веса настраивались в процессе обучения, чтобы модель могла корректно классифицировать входные данные. С развитием многослойных сетей и алгоритма обратного распространения ошибки (backpropagation, популяризированного в 1986 г. Дэвидом Румельхартом, Джеффри Хинтоном и Рональдом Уильямсом) настройка весов стала ключевым механизмом обучения глубоких нейросетей.

Отличие от других параметров модели

Важно отличать веса связей от других параметров модели:

  • Смещение (bias) — добавляет постоянный сдвиг к взвешенной сумме входов, но не связывает нейроны между слоями.
  • Гиперпараметры (например, скорость обучения, количество слоёв) — задаются до начала обучения и не обновляются в процессе, в отличие от весов, которые оптимизируются на основе данных.

Использование в типах нейронных сетей

Веса связей используются во всех типах нейронных сетей:

  • в полносвязных (плотных) слоях каждый нейрон соединён с каждым нейроном следующего слоя, и каждая связь имеет свой вес;
  • в свёрточных сетях (CNN) веса свёрточных фильтров определяют, какие признаки (например, края или текстуры) будут выделены из изображения;
  • в рекуррентных сетях (RNN) веса регулируют передачу информации между временными шагами, позволяя модели «помнить» предыдущие входные данные.

Примеры

в модели ResNet (2015 г.) миллионы весов настраиваются для распознавания объектов на изображениях;

в языковой модели GPT веса связей между нейронами определяют, как контекст влияет на предсказание следующего слова в тексте.

Авторизация