Основы нейронных сетей / Нейронные сети. Синергия. Ответы на ИТОГОВЫЙ ТЕСТ. На 100 баллов!

Раздел
Программирование
Тип
Просмотров
478
Покупок
8
Антиплагиат
Не указан
Размещена
7 Мар 2023 в 15:41
ВУЗ
Синергия
Курс
Не указан
Стоимость
300 ₽
Файлы работы   
1
Каждая работа проверяется на плагиат, на момент публикации уникальность составляет не менее 40% по системе проверки eTXT.
pdf
Ответы
279.6 Кбайт 300 ₽
Описание

Ответы представлены на ИТОГОВЫЙ ТЕСТ (в тесте 20 вопросов на 20 минут)

Результат - 100 баллов

Перед покупкой сверьте список вопросов и убедитесь, что вам нужны ответы именно на эти вопросы!

С вопросами вы можете ознакомиться ДО покупки.

Для быстрого поиска вопроса используйте Ctrl+F.

При возникновении вопросов или необходимости пройти тест по другому предмету пишите в личные сообщения https://studwork.ru/mail/259571

Другие мои работы можно найти по ссылке https://studwork.ru/shop?user=259571

Ответы вы сможете скачать сразу после покупки.

Нейронные сети.ои(sa)

Темы:

Введение в нейронные сети

Полносвязные нейронные сети

Элементы теории оптимизации

Обучение нейронных сетей

Сверточные нейронные сети

Рекуррентные нейронные сети. 1 Часть

Рекуррентные нейронные сети. 2 Часть

Tips and Tricks

Pwtorch

Векторные представления слов

Нейронные сети-трансформеры

Оглавление

Активационной функцией называется:

·      функция, вычисляющая выходной сигнал нейрона

·      функция, суммирующая входные сигналы нейрона

·      функция, корректирующая весовые значения

·      функция, распределяющая входные сигналы по нейронам

Алгоритм Backpropagation:

·      Состоит в случайном подборе весов модели до тех пор, пока не будет достигнут оптимальный набор параметров, минимизирующий ошибку

·      Используется только для оптимизации полносвязных нейросетей

·      Последовательном вычислении градиентов по весам модели, начиная с последнего слоя, по предактивациям соответствующего слоя и градиентам по весам следующего

Архитектура полносвязной нейронные сети основана на идее

·      обобщения низкоуровневых признаков и генерирования на их основе более высокоуровневых

·      Построения разделяющей гиперплоскости

·      Минимизации лосс-функции без использования градиентных методов

Все описанные в лекции алгоритмы обладают общим свойством. Каким?

·      Для всех требуется вычисление матрицы Гессе оптимизируемой функции

·      Для всех требуется вычисление градиентов оптимизированной функции

·      Для всех требуется подсчет значения оптимизируемой функции в данной точке

Градиентные методы оптимизации

·      Представляют собой итерационные алгоритмы

·      Аналитически ищут решение задачи оптимизации

·      Вопреки названию, не используют градиенты

Задача классификации – это задача

·      Обучения с учителем

·      Обучения без учителя

·      Обучения с подкреплением

Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Задача обучения сводится к задаче оптимизации на этапе:

·      Выбора семейства F

·      Оценки качества выбранной функции f из семейства F

·      Поиска наилучшей функции из семейства F

Идея Momentum состоит в:

·      Вычислении градиента в точке, к которой алгоритм должен сойтись на текущем шаге, согласно посчитанному моментному члену, а не в той точке, откуда алгоритм производит шаг

·      Использовании идеи физической инерции посредством добавления моментных членов, "скоростей"

·      приближенном, а значит - более быстром("моментальном") вычислении градиентов в текущей точке

Как происходит обучение нейронной сети?

·      эксперты настаивают нейронную сеть

·      сеть запускается на обучающем множестве, и незадействованные нейроны выкидываются

·      сеть запускается на обучающем множестве, и подстраиваются весовые значения

·      сеть запускается на обучающем множестве, и добавляются или убираются соединения между нейронами

Лучший способ борьбы с переобучением:

·      Изменение архитектуры модели

·      Регуляризации

·      Увеличение количества данных

Матричное умножение XW вычисляет:

·      выходной нейронный сигнал

·      выход суммирующего блока

·      выходной нейронный сигнал

·      вход суммирующего блока

Метод подбора адаптированного learning rate на основе оценки исторических градиентов:

·      Nesterov Momentum

·      RMSProp

·      Adagrad

Наиболее популярный на текущий момент метод оптимизации, основанный на идее использования двух моментных членов, предложенный в 2015 году:

·      ADAM

·      Adagrad

·      Adadelta

Начальная инициализация весов нейросети:

·      Должна быть константной для того, чтобы результаты обучения нейросети на одной и той же трейнинговой выборке были воспроизводимыми

·      Должна быть случайной для того, чтобы модель могла обучиться, не зануляя градиенты на определенном шаге, причем такой, что дисперсия сигнала не будет изменяться при проходе через слои нейросети.

·      Может быть любой

Нейронные сети бывают следующих видов:

·      Полносвязные и рекуррентные

·      Рекуррентные, сверточные и трансформеры

·      Рекуррентные, сверточные, полносвязные и трансформеры

Нейронные сети, наиболее часто применяющиеся в CV – это

·      Полносвязные

·      Сверточные

·      Рекуррентные

"Обучение без учителя" характеризуется отсутствием:

·      желаемого выхода сети

·      эксперта, корректирующего процесс обучения

·      обучающего множества

Обучение нейронной сети – это применение алгоритма оптимизации для решения задачи

·      Минимизации средней нормы градиента эмпирического риска по весам модели

·      Минимизации эмпирического риска

·      Минимизации средней нормы матриц весов модели

Обучение с учителем характеризуется

·      Целью обучить агента принимать оптимальные решения в среде

·      Отсутствием размеченной выборки

·      Наличием размеченной выборки

Отметьте верные высказывания о функциях активации:

·      Функция активации сигмоида лежит в диапазоне [0,1] и может быть интерпретирована как вероятность, а потому часто используется для решения задач бинарной классификации. Функция ReLU - кусочно-линейная

·      Функция Leacky ReLU - всюду дифференцируема. Популярная функция активации гиперболический тангенс может быть использована, как решающая функция для задачи регрессии. Производная сигмоидальной функции не выражается аналитически через значение самой функции в данной точке

·      Все функции активации взаимозаменяемы вследствие того, что имеют одну и ту же область значений и область определения

Переобучение – это эффект, возникающий при

·      Излишней сложности модели по отношению к сложности обучающей выборки, из-за чего происходит “заучивание” данных

·      Слишком долгом обучении модели, из-за чего она теряет свою предсказательную способность вследствие увеличения энтропии весов

·      Усталости специалиста по машинному обучению от того, что его модели слишком долго учатся

При прямом проходе через Feed Forward Neural Network:

·      Происходит обновление весов модели на основе градиентов, посчитанных на предыдущей итерации

·      Происходит выстраивание архитектуры модели посредством подбора числа слоев и их размеров

·      Сигнал передается посредством последовательного матричного умножения и применения нелинейных функций активации

Производная сигмоиды выражается через саму сигмоиду аналитически, как

·      sigm’ = sigm(1 - sigm)

·      sigm’ = 5sigm^(5)

·      sigm’ = 100sigm/sin(sigm)

Условия Каруша-Куна-Таккера применимы для решения:

·      Любой задачи оптимизации

·      Задачи выпуклой оптимизации

·      Задачи оптимизации произвольной функции на выпуклом множестве Q

Функции активации в нейронных сетях:

·      Нелинейны (глобально) и вносят неоднородность в сигнал при прямом проходе

·      Линейны и нужны для проверки работоспособности модели

·      Активируют нейросеть в разных режимах работы

Вам подходит эта работа?
Похожие работы
Обучение нейронных систем
Тест Тест
20 Ноя в 12:28
24
0 покупок
Обучение нейронных систем
Тест Тест
7 Ноя в 11:24
35
1 покупка
Обучение нейронных систем
Тест Тест
24 Окт в 21:31
63
1 покупка
Обучение нейронных систем
Контрольная работа Контрольная
18 Окт в 17:53
47
1 покупка
Обучение нейронных систем
Лабораторная работа Лабораторная
18 Окт в 17:45
29
0 покупок
Другие работы автора
Анализ и прогнозирование
Тест Тест
26 Дек в 14:48
31 +11
0 покупок
Предпринимательство
Тест Тест
23 Дек в 19:58
94 +12
0 покупок
Страховое право
Тест Тест
20 Дек в 14:43
54 +2
0 покупок
Интернет-маркетинг
Тест Тест
18 Дек в 19:03
80 +1
0 покупок
Гражданский процесс
Тест Тест
18 Дек в 11:41
104
2 покупки
Арбитражный процесс
Тест Тест
13 Дек в 10:34
69
1 покупка
Таможенное право
Тест Тест
2 Дек в 18:52
87
4 покупки
Теория игр
Тест Тест
1 Дек в 14:36
56 +1
0 покупок
Темы журнала
Показать ещё
Прямой эфир