Update index.md (#25204)
This commit is contained in:
@ -1,14 +1,14 @@
|
|||||||
---
|
---
|
||||||
title: Backpropagation
|
title: Backpropagation
|
||||||
localeTitle: обратное распространение
|
localeTitle: обратное распространение ошибки
|
||||||
---
|
---
|
||||||
## обратное распространение
|
## обратное распространение ошибки
|
||||||
|
|
||||||
Backprogapation - это подтема [нейронных сетей](../neural-networks/index.md) , и это процесс, посредством которого вы вычисляете градиенты каждого узла в сети. Эти градиенты измеряют «ошибку», каждый из которых вносит вклад в выходной уровень, поэтому при обучении нейронной сети эти градиенты минимизируются.
|
Backprogapation - это подтема [нейронных сетей](../neural-networks/index.md) и процесс, посредством которого вы вычисляете градиенты каждого узла в сети. Эти градиенты измеряют «ошибку», каждый из которых вносит вклад в выходной уровень, поэтому при обучении нейронной сети эти градиенты минимизируются.
|
||||||
|
|
||||||
Примечание. Просвещение назад и машинное обучение в целом требовали значительного знакомства с линейной алгеброй и матричной манипуляцией. Курсовая работа или чтение по этой теме настоятельно рекомендуется, прежде чем пытаться понять содержание этой статьи.
|
Примечание. Backprogapation требует знание линейной алгебры. Курсовая работа или чтение статей по этой тематике настоятельно рекомендуется, прежде чем пытаться понять содержание данной статьи.
|
||||||
|
|
||||||
### вычисление
|
### Вычисление
|
||||||
|
|
||||||
Процесс обратного распространения можно объяснить тремя шагами.
|
Процесс обратного распространения можно объяснить тремя шагами.
|
||||||
|
|
||||||
@ -24,7 +24,7 @@ Backprogapation - это подтема [нейронных сетей](../neura
|
|||||||
* D набор L-матриц с окончательными градиентами для каждого узла
|
* D набор L-матриц с окончательными градиентами для каждого узла
|
||||||
* лямбда - термин регуляризации для сети
|
* лямбда - термин регуляризации для сети
|
||||||
|
|
||||||
В этом случае для матрицы M M будет обозначать транспонирование матрицы M
|
В этом случае для матрицы M будет обозначать транспонирование матрицы M
|
||||||
|
|
||||||
1. Назначьте все записи Delta (i), для i от 1 до L, ноль.
|
1. Назначьте все записи Delta (i), для i от 1 до L, ноль.
|
||||||
2. Для каждого примера обучения t от 1 до m выполните следующие действия:
|
2. Для каждого примера обучения t от 1 до m выполните следующие действия:
|
||||||
@ -36,7 +36,7 @@ Backprogapation - это подтема [нейронных сетей](../neura
|
|||||||
|
|
||||||
1. Подключите матрицу Delta к нашим частным производным матрицам D (l) = 1 \\ m (Delta (l) + lambda • Theta (l)); если l ≠ 0 D (l) = 1 \\ m • Delta (l); если l = 0
|
1. Подключите матрицу Delta к нашим частным производным матрицам D (l) = 1 \\ m (Delta (l) + lambda • Theta (l)); если l ≠ 0 D (l) = 1 \\ m • Delta (l); если l = 0
|
||||||
|
|
||||||
Конечно, просто просмотр этой статьи выглядит чрезвычайно сложным и должен действительно пониматься только в более широких контекстах нейронных сетей и машинного обучения. Посмотрите на переписанные ссылки для лучшего понимания темы в целом.
|
Конечно, просто просмотр этой статьи выглядит чрезвычайно сложным и должен действительно пониматься только в более широких контекстах нейронных сетей и машинного обучения. Посмотрите на дополнительные ссылки для лучшего понимания темы.
|
||||||
|
|
||||||
#### Дополнительная информация:
|
#### Дополнительная информация:
|
||||||
|
|
||||||
|
Reference in New Issue
Block a user