fix(guide): simplify directory structure

This commit is contained in:
Mrugesh Mohapatra
2018-10-16 21:26:13 +05:30
parent f989c28c52
commit da0df12ab7
35752 changed files with 0 additions and 317652 deletions

View File

@@ -0,0 +1,12 @@
---
title: Convolutional Neural Networks
localeTitle: Сверточные нейронные сети
---
Сверточные нейронные сети (ConvNets или CNN) - это категория нейронных сетей, которые оказались очень эффективными в таких областях, как распознавание и классификация изображений. ConvNets успешно идентифицировали лица, объекты и дорожные знаки, кроме того, что они сидели в роботах и ​​самоходных автомобилях.
### Предлагаемые ссылки:
* Стэнфорд CS231n [Лекция 5 Сверточные нейронные сети](https://www.youtube.com/watch?v=bNb2fEVKeEo)
* Стэнфорд CS231n [Лекция 9 Архитектуры CNN](https://www.youtube.com/watch?v=DAOcjicFr1Y&t=2384s)
* Udacity Глубокое обучение: [сверточные сети](https://www.youtube.com/watch?v=jajksuQW4mc)
* Эндрю Нг DeepLearning.ai: [Конвуляционные нейронные сети](https://www.coursera.org/learn/convolutional-neural-networks/)

View File

@@ -0,0 +1,21 @@
---
title: Generative Adversarial Networks
localeTitle: Генерирующие Adversarial Networks
---
## Генерирующие Adversarial Networks
## обзор
Генерирующие состязательные сети (GAN) - это класс алгоритмов [искусственного интеллекта](https://en.wikipedia.org/wiki/Artificial_intelligence) , используемых в [неконтролируемом компьютерном обучении](https://en.wikipedia.org/wiki/Unsupervised_machine_learning) , реализуемый системой двух [нейронных сетей,](https://en.wikipedia.org/wiki/Neural_network) конкурирующих друг с другом в игровой системе с нулевой суммой. Они были представлены Ян Гудфеллоу и др. в 2014 году. Этот метод может генерировать фотографии, которые выглядят, по крайней мере, поверхностно аутентичными для наблюдателей-людей, обладающих множеством реалистичных характеристик (хотя в тестах люди могут сказать реальные из-за сгенерированных во многих случаях).
## метод
Одна сеть генерирует кандидатов (генеративных), а другая [оценивает их](https://en.wikipedia.org/wiki/Turing_test) (дискриминационную). Как правило, генерирующая сеть учится отображать из [скрытого пространства](https://en.wikipedia.org/wiki/Latent_variable) в конкретное распределение данных, представляющее интерес, в то время как дискриминационная сеть различает экземпляры от истинного распределения данных и кандидатов, созданных генератором. Цель обучения генеративной сети - увеличить частоту ошибок дискриминационной сети (т. Е. «Обмануть» сеть дискриминаторов, создавая новые синтезированные экземпляры, которые, как представляется, исходят из истинного распределения данных).
На практике известный набор данных служит исходными данными обучения для дискриминатора. Обучение дискриминатора предполагает представление его с образцами из набора данных, пока он не достигнет определенного уровня точности. Обычно генератор засевается рандомизированным входом, который выбирается из предопределенного скрытого пространства (например, [многомерного нормального распределения](https://en.wikipedia.org/wiki/Multivariate_normal_distribution) ). После этого образцы, синтезированные генератором, оцениваются дискриминатором. [Backpropagation](https://en.wikipedia.org/wiki/Backpropagation) применяется в обеих сетях, так что генератор создает более качественные изображения, в то время как дискриминатор становится более опытным при маркировке синтетических изображений. Генератор обычно является деконволюционной нейронной сетью, а дискриминатор представляет собой [сверточную нейронную сеть](https://en.wikipedia.org/wiki/Convolutional_neural_network) .
Идея вывести модели в конкурентной среде (модель против дискриминатора) была предложена Ли, Гаучи и Гросом в 2013 году. Их метод используется для поведенческого вывода. Это называется Тьюрингом Изучением, так как эта настройка аналогична настройке [теста Тьюринга](https://en.wikipedia.org/wiki/Turing_test) . Обучение Тьюринга - это обобщение ГАН. Могут рассматриваться модели, отличные от нейронных сетей. Более того, дискриминаторам разрешено влиять на процессы, из которых получены наборы данных, делая их активными запросчиками, как в тесте Тьюринга. Идея о состязательном обучении также можно найти в более ранних работах, таких как Шмидхубер в 1992 году.
## заявка
GAN были использованы для производства образцов [фотореалистичных](https://en.wikipedia.org/wiki/Photorealistic) изображений для визуализации нового интерьера / промышленного дизайна, обуви, сумок и предметов одежды или предметов для сцен компьютерных игр. Сообщалось, что эти сети используются Facebook. Недавно GAN смоделировали модели движения в видео. Они также использовались для восстановления 3D-моделей объектов с изображений и улучшения астрономических изображений. В 2017 году для ускорения изображения с использованием автоматизированного синтеза текстур в сочетании с перцептивной потерей был использован полностью сверточный комбинированный GAN-фильтр. Система фокусировалась на реалистичных текстурах, а не на пиксельной точности. Результатом было высокое качество изображения при высоком увеличении.

View File

@@ -0,0 +1,64 @@
---
title: Neural Networks
localeTitle: Нейронные сети
---
## Нейронные сети
![Первичная нейронная сеть](http://ufldl.stanford.edu/tutorial/images/SingleNeuron.png)
Искусственная нейронная сеть - это вычислительная система. Они похожи на биологические нейронные сети, которые составляют мозг животных. Для обучения нейронной сети нам нужен вектор ввода и соответствующий выходной вектор. Обучение работает путем сведения к минимуму ошибки. Эта ошибка может быть квадратичной разницей между прогнозируемым выходом и исходным выходом.
Основным принципом, лежащим в основе замечательного успеха нейронных сетей, является «Универсальная теорема приближения». Математически доказано, что нейронные сети являются универсальными машинами аппроксимации, которые способны аппроксимировать любую математическую функцию между данными входами и выходами.
Первоначально нейронные сети стали популярными в 1980-х годах, но ограничения в вычислительной мощности запрещали их широкое признание до последнего десятилетия. Инновации в размерах и мощности процессора позволяют реализовать нейронную сеть в масштабе, хотя другие парадигмы машинного обучения все еще превосходят нейронные сети с точки зрения эффективности.
Основным элементом нейронной сети является нейрон. Он представляет собой вектор, скажем, `x` , а его вывод является вещественной переменной, например `y` . Таким образом, мы можем заключить, что нейрон действует как отображение между вектором `x` и вещественным числом `y` .
Нейронные сети выполняют регрессию итеративно на нескольких уровнях, что приводит к более тонкой модели прогнозирования. Один узел в нейронной сети вычисляет ту же функцию, что и [логистическая регрессия](../logistic-regression/index.md) . Все эти слои, помимо ввода и вывода, скрыты, то есть конкретные черты, представленные этими уровнями, не выбраны или не изменены программистом.
![Четырехслойная нейронная сеть](http://cs231n.github.io/assets/nn1/neural_net2.jpeg)
В любом данном слое каждый узел принимает все значения, хранящиеся на предыдущем уровне, в качестве входных данных и делает прогнозы на них на основе анализа логистической регрессии. Сила нейронных сетей заключается в их способности «обнаруживать» модели и черты, невидимые программистами. Как упоминалось ранее, средние слои «скрыты», что означает, что веса, передаваемые переходам, определяются исключительно обучением алгоритма.
Нейронные сети используются по целому ряду задач. К ним относятся компьютерное зрение, распознавание речи, перевод, фильтрация социальной сети, воспроизведение видеоигр и медицинский диагноз между прочим.
### Визуализация
Есть потрясающий инструмент, который поможет вам понять идею нейронных сетей без какой-либо жесткой математики: [TensorFlow Playground](http://playground.tensorflow.org) , веб-приложение, которое позволяет вам играть с реальной нейронной сетью, работающей в вашем браузере, и щелкать кнопками и настраивать параметры, чтобы увидеть, как это работает.
### Проблемы, решаемые с помощью Neural Networks
* классификация
* Кластеризация
* регрессия
* Обнаружение аномалий
* Правила ассоциации
* Укрепление обучения
* Структурированное прогнозирование
* Разработка функций
* Изучение функций
* Обучение ранжированию
* Грамматическая индукция
* Прогноз погоды
* Создание изображений
### Общие системы нейронных сетей
Самые распространенные нейронные сети, используемые сегодня, относятся к категории [глубокого обучения](https://github.com/freeCodeCamp/guides/blob/master/src/pages/machine-learning/deep-learning/index.md) . Глубокое обучение - это процесс объединения нескольких слоев нейронов, чтобы сеть могла создавать все более абстрактные отображения между входными и выходными векторами. Глубокие нейронные сети чаще всего используют [обратную пропозицию](https://github.com/freeCodeCamp/guides/blob/master/src/pages/machine-learning/backpropagation/index.md) , чтобы сходиться к наиболее точному отображению.
Второй наиболее распространенной формой нейронных сетей является nueroevolution. В этой системе несколько нейронных сетей генерируются случайным образом в качестве исходных догадок. Затем для сближения более точного отображения используются несколько поколений комбинирования точных большинства сетей и случайных перестановок.
### Типы нейронных сетей
* Рекуррентная нейронная сеть (RNN)
* Долгосрочная временная память (LSTM), тип RNN
* Сверточная нейронная сеть (CNN)
### Дополнительная информация:
* [Нейронные сети - Википедия](https://en.wikipedia.org/wiki/Artificial_neural_network#Components_of_an_artificial_neural_network)
* [Характер кода Дэниела Шиффмана](http://natureofcode.com/book/chapter-10-neural-networks/)
* [Стэнфордский университет, многослойные нейронные сети](http://ufldl.stanford.edu/tutorial/supervised/MultiLayerNeuralNetworks/)
* [Канал 3Blue1Brown, Youtube с содержанием нейронной сети](https://youtu.be/aircAruvnKk)
* [Siraj Raval, Youtube CHANNEL с содержанием нейронной сети](https://youtu.be/h3l4qz76JhQ)
* [Нейроэволюция - Википедия](https://en.wikipedia.org/wiki/Neuroevolution)

View File

@@ -0,0 +1,11 @@
---
title: Multi Layer Perceptron
localeTitle: Многослойный перцептрон
---
## Многослойный перцептрон
Это заглушка. [Помогите нашему сообществу расширить его](https://github.com/freecodecamp/guides/tree/master/src/pages/machine-learning/neural-networks/multi-layer-perceptron/index.md) .
[Это руководство по быстрому стилю поможет вам принять ваш запрос на тягу](https://github.com/freecodecamp/guides/blob/master/README.md) .
#### Дополнительная информация:

View File

@@ -0,0 +1,11 @@
---
title: Perceptron
localeTitle: Perceptron
---
## Perceptron
Это заглушка. [Помогите нашему сообществу расширить его](https://github.com/freecodecamp/guides/tree/master/src/pages/machine-learning/neural-networks/perceptron/index.md) .
[Это руководство по быстрому стилю поможет вам принять ваш запрос на тягу](https://github.com/freecodecamp/guides/blob/master/README.md) .
#### Дополнительная информация:

View File

@@ -0,0 +1,11 @@
---
title: Recurrent Neural Networks
localeTitle: Рекуррентные нейронные сети
---
## Рекуррентные нейронные сети
Это заглушка. [Помогите нашему сообществу расширить его](https://github.com/freecodecamp/guides/tree/master/src/pages/machine-learning/neural-networks/recurrent-neural-networks/index.md) .
[Это руководство по быстрому стилю поможет вам принять ваш запрос на тягу](https://github.com/freecodecamp/guides/blob/master/README.md) .
#### Дополнительная информация: