Update index.md (#25204)

This commit is contained in:
Nikolay
2018-12-09 18:16:02 +03:00
committed by Gregory Gubarev
parent d7293baff3
commit 3ece5fbdb4

View File

@ -1,14 +1,14 @@
---
title: Backpropagation
localeTitle: обратное распространение
localeTitle: обратное распространение ошибки
---
## обратное распространение
## обратное распространение ошибки
Backprogapation - это подтема [нейронных сетей](../neural-networks/index.md) , и это процесс, посредством которого вы вычисляете градиенты каждого узла в сети. Эти градиенты измеряют «ошибку», каждый из которых вносит вклад в выходной уровень, поэтому при обучении нейронной сети эти градиенты минимизируются.
Backprogapation - это подтема [нейронных сетей](../neural-networks/index.md) и процесс, посредством которого вы вычисляете градиенты каждого узла в сети. Эти градиенты измеряют «ошибку», каждый из которых вносит вклад в выходной уровень, поэтому при обучении нейронной сети эти градиенты минимизируются.
Примечание. Просвещение назад и машинное обучение в целом требовали значительного знакомства с линейной алгеброй и матричной манипуляцией. Курсовая работа или чтение по этой теме настоятельно рекомендуется, прежде чем пытаться понять содержание этой статьи.
Примечание. Backprogapation требует знание линейной алгебры. Курсовая работа или чтение статей по этой тематике настоятельно рекомендуется, прежде чем пытаться понять содержание данной статьи.
### вычисление
### Вычисление
Процесс обратного распространения можно объяснить тремя шагами.
@ -24,7 +24,7 @@ Backprogapation - это подтема [нейронных сетей](../neura
* D набор L-матриц с окончательными градиентами для каждого узла
* лямбда - термин регуляризации для сети
В этом случае для матрицы M M будет обозначать транспонирование матрицы M
В этом случае для матрицы M будет обозначать транспонирование матрицы M
1. Назначьте все записи Delta (i), для i от 1 до L, ноль.
2. Для каждого примера обучения t от 1 до m выполните следующие действия:
@ -36,7 +36,7 @@ Backprogapation - это подтема [нейронных сетей](../neura
1. Подключите матрицу Delta к нашим частным производным матрицам D (l) = 1 \\ m (Delta (l) + lambda • Theta (l)); если l ≠ 0 D (l) = 1 \\ m • Delta (l); если l = 0
Конечно, просто просмотр этой статьи выглядит чрезвычайно сложным и должен действительно пониматься только в более широких контекстах нейронных сетей и машинного обучения. Посмотрите на переписанные ссылки для лучшего понимания темы в целом.
Конечно, просто просмотр этой статьи выглядит чрезвычайно сложным и должен действительно пониматься только в более широких контекстах нейронных сетей и машинного обучения. Посмотрите на дополнительные ссылки для лучшего понимания темы.
#### Дополнительная информация:
@ -45,4 +45,4 @@ Backprogapation - это подтема [нейронных сетей](../neura
* [Курс Эндрю Нг](https://www.coursera.org/learn/machine-learning/)
* [В глубине статьи в стиле вики](https://brilliant.org/wiki/backpropagation/)
* [Backprop в Википедии](https://en.wikipedia.org/wiki/Backpropagation)
* [Пример поэтапного обратного прогона](https://mattmazur.com/2015/03/17/a-step-by-step-backpropagation-example/)
* [Пример поэтапного обратного прогона](https://mattmazur.com/2015/03/17/a-step-by-step-backpropagation-example/)