Нихиль Будума - Основы глубокого обучения
Название: | Основы глубокого обучения | |
Автор: | Нихиль Будума | |
Жанр: | Детская образовательная литература, Околокомпьютерная литература, Управление, подбор персонала | |
Изадано в серии: | МИФ Бизнес | |
Издательство: | Манн, Иванов и Фербер | |
Год издания: | 2020 | |
ISBN: | 978-5-00146-472-3 | |
Отзывы: | Комментировать | |
Рейтинг: | ||
Поделись книгой с друзьями! Помощь сайту: донат на оплату сервера |
Краткое содержание книги "Основы глубокого обучения"
Глубокое обучение – это раздел машинного обучения, изучающий глубокие нейронные сети и выстраивающий процесс получения знаний на основе примеров. Такие крупные компании, как Google, Microsoft и Facebook* (Запрещенная организация в РФ), уделяют большое внимание глубокому обучению и расширяют свои подразделения в этой сфере. Для всех прочих глубокое обучение пока остается сложным, многогранным и малопонятным предметом.
Цель этой книги – заполнить этот пробел. Авторы разбирают основные принципы решения задач в глубоком обучении, исторический контекст современных подходов к нему и способы внедрения его алгоритмов.
Для всех, кто интересуется или занимается глубоким обучением.
На русском языке публикуется впервые.
К этой книге применимы такие ключевые слова (теги) как: нейронные сети
Читаем онлайн "Основы глубокого обучения" (ознакомительный отрывок). [Страница - 3]
- 1
- 2
- 3
- 4
- 5
- . . .
- последняя (7) »
Перейдем к более строгому изложению и сформулируем идею математически. Пусть наша модель – функция h(x, θ). Входное значение x – пример в векторной форме. Допустим, если x – изображение в оттенках серого, компоненты вектора – интенсивность пикселей в каждой позиции, как показано на рис. 1.3.
Рис. 1.3. Векторизация изображения для алгоритма машинного обучения
Входное значение θ – вектор параметров, используемых в нашей модели. Программа пытается усовершенствовать их значения на основе растущего числа примеров. Подробнее мы рассмотрим этот вопрос в главе 2.
Чтобы интуитивно понимать модели машинного обучения, рассмотрим пример. Допустим, мы решили узнать, как предсказывать результаты экзаменов, если известно количество часов сна и учебы в день перед испытанием. Мы собираем массив данных и при каждом замере х = [x1 x2]T записываем количество часов сна (x1), учебы (x2) и отмечаем, выше или ниже они средних по классу. Наша цель – создать модель h(х,θ) с вектором параметров θ = [θ0 θ1 θ2]T, чтобы:
По нашему предположению, проект модели h(х,θ) будет таким, как описано выше (с геометрической точки зрения он описывает линейный классификатор, делящий плоскость координат надвое). Теперь мы хотим узнать вектор параметров θ, чтобы научить модель делать верные предсказания (−1, если результаты ниже среднего уровня, и 1 – если выше) на основании примерного входного значения x. Такая модель называется линейным персептроном и используется с 1950-х[3]. Предположим, наши данные соответствуют тому, что показано на рис. 1.4.
Рис. 1.4. Образец данных для алгоритма предсказания экзаменов и потенциального классификатора
Оказывается, при θ = [−24 3 4]T модель машинного обучения способна сделать верное предсказание для каждого замера:
Оптимальный вектор параметров θ устанавливает классификатор так, чтобы можно было сделать как можно больше корректных предсказаний. Обычно есть множество (иногда даже бесконечное) возможных оптимальных вариантов θ. К счастью, в большинстве случаев альтернативы настолько близки, что разницей между ними можно пренебречь. Если это не так, можно собрать больше данных, чтобы сузить выбор θ.
Звучит разумно, но есть много очень серьезных вопросов. Во-первых, откуда берется оптимальное значение вектора параметров θ? Решение этой задачи требует применения метода оптимизации. Оптимизаторы стремятся повысить производительность модели машинного обучения, последовательно изменяя ее параметры, пока погрешность не станет минимальной.
Мы подробнее расскажем об обучении векторов параметров в главе 2, описывая процесс градиентного спуска[4]. Позже мы постараемся найти способы еще больше увеличить эффективность этого процесса.
Во-вторых, очевидно, что эта модель (линейного персептрона) имеет ограниченный потенциал обучения. Например, случаи распределения данных на рис. 1.5 нельзя удобно описать с помощью линейного персептрона.
Рис. 1.5. По мере того как данные принимают более комплексные формы, нам становятся необходимы более сложные модели для их описания
Но эти ситуации – верхушка айсберга. Когда мы переходим к более комплексным проблемам – распознаванию объектов или анализу --">
- 1
- 2
- 3
- 4
- 5
- . . .
- последняя (7) »
Книги схожие с «Основы глубокого обучения» по жанру, серии, автору или названию:
Наталья Михайловна Сокольникова - Основы рисунка для учащихся 5-8 классов Жанр: Детская образовательная литература Год издания: 1996 Серия: Изобразнительное искусство |
Ольга Игоревна Марченко - Основы красноречия. Риторика как наука и искусство убеждать Жанр: Детская образовательная литература Год издания: 2016 |
Рената Кирилина, Сергей Кирилин - 25 техник эффективного обучения для интересного изучения математики с ребенком Жанр: Детская образовательная литература Год издания: 2019 |
Иоганн Брандштеттер, Эльке Циппель - Бабочки. Основы систематики, среда обитания, жизненный цикл и магия совершенства Жанр: Научная литература Год издания: 2021 Серия: Новый натуралист |
Другие книги из серии «МИФ Бизнес»:
Стивен Бангей - Искусство действия Жанр: Экономика Год издания: 2020 Серия: МИФ Бизнес |
Нихиль Будума - Основы глубокого обучения Жанр: Управление, подбор персонала Год издания: 2020 Серия: МИФ Бизнес |
Елена Резанова - Работа, которая заряжает. Как не выгореть, занимаясь любимым делом Жанр: Управление, подбор персонала Год издания: 2022 Серия: МИФ Бизнес |
Рэй Далио - Принципы изменения мирового порядка Жанр: Экономика Год издания: 2022 Серия: МИФ Бизнес |