chore(i18n,curriculum): processed translations - new ukrainian (#44447)
This commit is contained in:
@@ -0,0 +1,34 @@
|
||||
---
|
||||
id: 5e9a0e9ef99a403d019610cc
|
||||
title: Демістифікація глибинного навчання
|
||||
challengeType: 11
|
||||
videoId: bejQ-W9BGJg
|
||||
dashedName: deep-learning-demystified
|
||||
---
|
||||
|
||||
# --question--
|
||||
|
||||
## --text--
|
||||
|
||||
Яке значення необхідно задавати ваговим коефіцієнтам вхідних нейронів перед першим тренуванням нейронної мережі?
|
||||
|
||||
## --answers--
|
||||
|
||||
Від найменшого до найбільшого.
|
||||
|
||||
---
|
||||
|
||||
Абсолютно випадково.
|
||||
|
||||
---
|
||||
|
||||
За алфавітом.
|
||||
|
||||
---
|
||||
|
||||
Жодне із перерахованого вище.
|
||||
|
||||
## --video-solution--
|
||||
|
||||
2
|
||||
|
@@ -0,0 +1,30 @@
|
||||
---
|
||||
id: 5e9a0e9ef99a403d019610cd
|
||||
title: Як працюють згорткові нейронні мережі
|
||||
challengeType: 11
|
||||
videoId: Y5M7KH4A4n4
|
||||
dashedName: how-convolutional-neural-networks-work
|
||||
---
|
||||
|
||||
# --question--
|
||||
|
||||
## --text--
|
||||
|
||||
Коли згорткові нейронні мережі не є корисними?
|
||||
|
||||
## --answers--
|
||||
|
||||
Якщо дані не можуть бути представлені у вигляді зображення, або якщо можливо перескладати елементи даних без втрати корисності.
|
||||
|
||||
---
|
||||
|
||||
Якщо дані складаються із різних 2D або 3D зображень.
|
||||
|
||||
---
|
||||
|
||||
Якщо дані є текстовими або звуковими матеріалами.
|
||||
|
||||
## --video-solution--
|
||||
|
||||
1
|
||||
|
@@ -0,0 +1,30 @@
|
||||
---
|
||||
id: 5e9a0e9ef99a403d019610ca
|
||||
title: Як працюють нейронні мережі глибинного навчання
|
||||
challengeType: 11
|
||||
videoId: zvalnHWGtx4
|
||||
dashedName: how-deep-neural-networks-work
|
||||
---
|
||||
|
||||
# --question--
|
||||
|
||||
## --text--
|
||||
|
||||
Чому обраховувати кутовий коефіцієнт краще ніж похідну за напрямком, а не чисельно?
|
||||
|
||||
## --answers--
|
||||
|
||||
Повертатися через усю нейронну мережу і підбирати коефіцієнт ваги для кожного окремого шару нейронної мережі є обчислювально затратно.
|
||||
|
||||
---
|
||||
|
||||
Це більш точно.
|
||||
|
||||
---
|
||||
|
||||
Немає жодної різниці поміж цими двома методами.
|
||||
|
||||
## --video-solution--
|
||||
|
||||
1
|
||||
|
@@ -0,0 +1,30 @@
|
||||
---
|
||||
id: 5e9a0e9ef99a403d019610cb
|
||||
title: Рекурентні нейронні мережі RNN і Довга короткочасна пам'ять LSTM
|
||||
challengeType: 11
|
||||
videoId: UVimlsy9eW0
|
||||
dashedName: recurrent-neural-networks-rnn-and-long-short-term-memory-lstm
|
||||
---
|
||||
|
||||
# --question--
|
||||
|
||||
## --text--
|
||||
|
||||
Якими є основні компоненти нейронної мережі, що утворюють мережу довгої короткочасної пам'яті?
|
||||
|
||||
## --answers--
|
||||
|
||||
Нова інформація та передбачення.
|
||||
|
||||
---
|
||||
|
||||
Передбачення, набір зібраних можливостей, та вибірка.
|
||||
|
||||
---
|
||||
|
||||
Передбачення, ігнорування, забування, та вибірка.
|
||||
|
||||
## --video-solution--
|
||||
|
||||
3
|
||||
|
Reference in New Issue
Block a user