Add the text "semelhantes às utilizadas em funções matemáticas" to article (#23435)
This commit is contained in:
committed by
Randell Dawson
parent
03c55d309b
commit
4665b92469
@ -20,7 +20,7 @@ Acontece que há muitos problemas por aí que não são relacionados à imagem (
|
|||||||
|
|
||||||
### Como treinar um modelo de aprendizagem profunda?
|
### Como treinar um modelo de aprendizagem profunda?
|
||||||
|
|
||||||
Treinar uma rede neural profunda (também conhecida como nossa pilha de funções matemáticas organizadas em alguma arquitetura) é basicamente uma arte com muitos hiper-parâmetros. Os hiper-parâmetros são basicamente coisas como qual função matemática usar, ou qual arquitetura usar, que você precisa calcular manualmente até que sua rede seja capaz de classificar com sucesso cães e gatos. Para treinar, você precisa de muitos dados rotulados (neste caso, muitas imagens já catalogadas como cães ou gatos) e muito poder de computação e paciência!
|
Treinar uma rede neural profunda (também conhecida como nossa pilha de funções matemáticas organizadas em alguma arquitetura) é basicamente uma arte com muitos hiper-parâmetros. Os hiper-parâmetros são basicamente coisas semelhantes às utilizadas em funções matemáticas, ou qual arquitetura usar, que você precisa calcular manualmente até que sua rede seja capaz de classificar com sucesso cães e gatos. Para treinar, você precisa de muitos dados rotulados (neste caso, muitas imagens já catalogadas como cães ou gatos) e muito poder de computação e paciência!
|
||||||
|
|
||||||
Para treinar, você fornece uma rede neural com uma função de perda que basicamente diz quão diferentes são os resultados da rede neural versus as respostas corretas. Dependendo do valor da função loss, você altera os parâmetros da função matemática de tal forma que na próxima vez que sua rede tentar classificar a mesma imagem, o valor da função loss será menor. Você continua encontrando o valor da função de perda e atualizando os parâmetros repetidamente em todo o conjunto de dados de treinamento até que os valores da função de perda estejam dentro de margens razoáveis. Sua enorme rede neural está pronta agora!
|
Para treinar, você fornece uma rede neural com uma função de perda que basicamente diz quão diferentes são os resultados da rede neural versus as respostas corretas. Dependendo do valor da função loss, você altera os parâmetros da função matemática de tal forma que na próxima vez que sua rede tentar classificar a mesma imagem, o valor da função loss será menor. Você continua encontrando o valor da função de perda e atualizando os parâmetros repetidamente em todo o conjunto de dados de treinamento até que os valores da função de perda estejam dentro de margens razoáveis. Sua enorme rede neural está pronta agora!
|
||||||
|
|
||||||
|
Reference in New Issue
Block a user