48 lines
		
	
	
		
			2.9 KiB
		
	
	
	
		
			Markdown
		
	
	
	
	
	
		
		
			
		
	
	
			48 lines
		
	
	
		
			2.9 KiB
		
	
	
	
		
			Markdown
		
	
	
	
	
	
|   | --- | ||
|  | title: Backpropagation | ||
|  | localeTitle: Backpropagation | ||
|  | --- | ||
|  | ## Backpropagation
 | ||
|  | 
 | ||
|  | Backprogapation es un subtema de [redes neuronales](../neural-networks/index.md) y es el proceso mediante el cual se calculan los gradientes de cada nodo en la red. Estos gradientes miden el "error" que cada nodo contribuye a la capa de salida, por lo que al entrenar una red neuronal, estos gradientes se minimizan. | ||
|  | 
 | ||
|  | Nota: La propagación hacia atrás y el aprendizaje automático en general requirieron una familiaridad significativa con el álgebra lineal y la manipulación de matrices. El trabajo de curso o la lectura sobre este tema es altamente recomendable antes de tratar de entender el contenido de este artículo. | ||
|  | 
 | ||
|  | ### Cálculo
 | ||
|  | 
 | ||
|  | El proceso de propagación hacia atrás puede explicarse en tres pasos. | ||
|  | 
 | ||
|  | Dado lo siguiente | ||
|  | 
 | ||
|  | *   m ejemplos de entrenamiento (x, y) en una red neuronal de capas L | ||
|  | *   g = la función sigmoide | ||
|  | *   Theta (i) = la matriz de transición de la i a la capa i + 1 | ||
|  | *   a (l) = g (z (l)); una matriz de los valores de los nodos en la capa l basada en un ejemplo de entrenamiento | ||
|  | *   z (l) = Theta (l-1) a (l-1) | ||
|  | *   Delta un conjunto de matrices L que representan transiciones entre las capas ith e i + 1 ª | ||
|  | *   d (l) = la matriz de los gradientes para la capa l para un ejemplo de entrenamiento | ||
|  | *   D un conjunto de L matricias con los gradientes finales para cada nodo | ||
|  | *   lambda el término de regulación para la red | ||
|  | 
 | ||
|  | En este caso, para la matriz M, M 'denotará la transposición de la matriz M | ||
|  | 
 | ||
|  | 1.  Asigne todas las entradas del Delta (i), para i de 1 a L, cero. | ||
|  | 2.  Para cada ejemplo de entrenamiento t de 1 a m, realice lo siguiente: | ||
|  | 
 | ||
|  | *   realice una propagación hacia adelante en cada ejemplo para calcular a (l) yz (l) para cada capa | ||
|  | *   calcular d (L) = a (L) - y (t) | ||
|  | *   calcular d (l) = (Theta (l) '• d (l + 1)) • g (z (l)) para l de L-1 a 1 | ||
|  | *   incrementa Delta (l) por delta (l + 1) • a (l) ' | ||
|  | 
 | ||
|  | 1.  Conecte las matrices delta en nuestras matrices derivadas parciales D (l) = 1 \\ m (Delta (l) + lambda • Theta (l)); si l ≠ 0 D (l) = 1 \\ m • Delta (l); si l = 0 | ||
|  | 
 | ||
|  | Por supuesto, el simple hecho de ver este artículo parece enormemente complicado y solo debería entenderse en los contextos más amplios de las redes neuronales y el aprendizaje automático. Por favor, mire las referencias completas para una mejor comprensión del tema en su conjunto. | ||
|  | 
 | ||
|  | #### Más información:
 | ||
|  | 
 | ||
|  | *   [Clase 4 CS231n Introducción a las redes neuronales](https://youtu.be/d14TUNcbn1k?t=354) | ||
|  | *   [Siraj Raval - Backpropagation en 5 minutos](https://www.youtube.com/watch?v=q555kfIFUCM) | ||
|  | *   [Curso de Andrew Ng's ML](https://www.coursera.org/learn/machine-learning/) | ||
|  | *   [En profundidad, artículo de estilo wiki.](https://brilliant.org/wiki/backpropagation/) | ||
|  | *   [Backprop en Wikipedia](https://en.wikipedia.org/wiki/Backpropagation) | ||
|  | *   [Un ejemplo de propagación hacia atrás paso a paso](https://mattmazur.com/2015/03/17/a-step-by-step-backpropagation-example/) |