From 3ece5fbdb43bab8c31ed8aa6672507f38d5bbcd2 Mon Sep 17 00:00:00 2001 From: Nikolay Date: Sun, 9 Dec 2018 18:16:02 +0300 Subject: [PATCH] Update index.md (#25204) --- .../machine-learning/backpropagation/index.md | 16 ++++++++-------- 1 file changed, 8 insertions(+), 8 deletions(-) diff --git a/guide/russian/machine-learning/backpropagation/index.md b/guide/russian/machine-learning/backpropagation/index.md index 4d30e11ac4..e74742c21c 100644 --- a/guide/russian/machine-learning/backpropagation/index.md +++ b/guide/russian/machine-learning/backpropagation/index.md @@ -1,14 +1,14 @@ --- title: Backpropagation -localeTitle: обратное распространение +localeTitle: обратное распространение ошибки --- -## обратное распространение +## обратное распространение ошибки -Backprogapation - это подтема [нейронных сетей](../neural-networks/index.md) , и это процесс, посредством которого вы вычисляете градиенты каждого узла в сети. Эти градиенты измеряют «ошибку», каждый из которых вносит вклад в выходной уровень, поэтому при обучении нейронной сети эти градиенты минимизируются. +Backprogapation - это подтема [нейронных сетей](../neural-networks/index.md) и процесс, посредством которого вы вычисляете градиенты каждого узла в сети. Эти градиенты измеряют «ошибку», каждый из которых вносит вклад в выходной уровень, поэтому при обучении нейронной сети эти градиенты минимизируются. -Примечание. Просвещение назад и машинное обучение в целом требовали значительного знакомства с линейной алгеброй и матричной манипуляцией. Курсовая работа или чтение по этой теме настоятельно рекомендуется, прежде чем пытаться понять содержание этой статьи. +Примечание. Backprogapation требует знание линейной алгебры. Курсовая работа или чтение статей по этой тематике настоятельно рекомендуется, прежде чем пытаться понять содержание данной статьи. -### вычисление +### Вычисление Процесс обратного распространения можно объяснить тремя шагами. @@ -24,7 +24,7 @@ Backprogapation - это подтема [нейронных сетей](../neura * D набор L-матриц с окончательными градиентами для каждого узла * лямбда - термин регуляризации для сети -В этом случае для матрицы M M будет обозначать транспонирование матрицы M +В этом случае для матрицы M будет обозначать транспонирование матрицы M 1. Назначьте все записи Delta (i), для i от 1 до L, ноль. 2. Для каждого примера обучения t от 1 до m выполните следующие действия: @@ -36,7 +36,7 @@ Backprogapation - это подтема [нейронных сетей](../neura 1. Подключите матрицу Delta к нашим частным производным матрицам D (l) = 1 \\ m (Delta (l) + lambda • Theta (l)); если l ≠ 0 D (l) = 1 \\ m • Delta (l); если l = 0 -Конечно, просто просмотр этой статьи выглядит чрезвычайно сложным и должен действительно пониматься только в более широких контекстах нейронных сетей и машинного обучения. Посмотрите на переписанные ссылки для лучшего понимания темы в целом. +Конечно, просто просмотр этой статьи выглядит чрезвычайно сложным и должен действительно пониматься только в более широких контекстах нейронных сетей и машинного обучения. Посмотрите на дополнительные ссылки для лучшего понимания темы. #### Дополнительная информация: @@ -45,4 +45,4 @@ Backprogapation - это подтема [нейронных сетей](../neura * [Курс Эндрю Нг](https://www.coursera.org/learn/machine-learning/) * [В глубине статьи в стиле вики](https://brilliant.org/wiki/backpropagation/) * [Backprop в Википедии](https://en.wikipedia.org/wiki/Backpropagation) -* [Пример поэтапного обратного прогона](https://mattmazur.com/2015/03/17/a-step-by-step-backpropagation-example/) \ No newline at end of file +* [Пример поэтапного обратного прогона](https://mattmazur.com/2015/03/17/a-step-by-step-backpropagation-example/)