chore(i18n,learn): processed translations (#44851)

This commit is contained in:
camperbot
2022-01-21 01:00:18 +05:30
committed by GitHub
parent f866718a3d
commit 5c868af2b8
1696 changed files with 159426 additions and 69 deletions

View File

@ -0,0 +1,34 @@
---
id: 5e9a0e9ef99a403d019610cc
title: ディープラーニングとは
challengeType: 11
videoId: bejQ-W9BGJg
dashedName: deep-learning-demystified
---
# --question--
## --text--
初めてネットワークをトレーニングする前に、入力ニューロンに割り当てる必要がある重みはどれですか?
## --answers--
最小から最大まで。
---
完全にランダム。
---
アルファベット順。
---
上記のいずれでもない。
## --video-solution--
2

View File

@ -0,0 +1,30 @@
---
id: 5e9a0e9ef99a403d019610cd
title: 畳み込みニューラルネットワークの仕組み
challengeType: 11
videoId: Y5M7KH4A4n4
dashedName: how-convolutional-neural-networks-work
---
# --question--
## --text--
畳み込みニューラルネットワークが役に立たない場合はどれですか?
## --answers--
データを画像として扱えるように作成できない場合、またはデータの要素を並べ替えても同様に役立つ場合。
---
データが異なる 2D または 3D 画像で構成されている場合。
---
データがテキストまたは音声ベースの場合。
## --video-solution--
1

View File

@ -0,0 +1,30 @@
---
id: 5e9a0e9ef99a403d019610ca
title: ディープニューラルネットワークの仕組み
challengeType: 11
videoId: zvalnHWGtx4
dashedName: how-deep-neural-networks-work
---
# --question--
## --text--
数値ではなく勾配 (傾斜) を直接計算する方が良いのはなぜですか?
## --answers--
再びニューラルネットワーク全体を処理してニューラルネットワークの各層の重みを調整するのは計算量が多くなるから。
---
より正確だから。
---
両者の方法に違いはない。
## --video-solution--
1

View File

@ -0,0 +1,30 @@
---
id: 5e9a0e9ef99a403d019610cb
title: 再帰型ニューラルネットワーク RNN と長・短期記憶 LSTM
challengeType: 11
videoId: UVimlsy9eW0
dashedName: recurrent-neural-networks-rnn-and-long-short-term-memory-lstm
---
# --question--
## --text--
長・短期記憶ネットワークを構成するニューラルネットワークの主な構成要素は何ですか?
## --answers--
新しい情報や予測。
---
予測、収集した可能性、および選択。
---
予測、無知、忘却、選択。
## --video-solution--
3