Искусственный интеллект (тест с ответами Синергия)

Раздел
Экономические дисциплины
Предмет
Тип
Просмотров
824
Покупок
17
Антиплагиат
Не указан
Размещена
28 Апр 2022 в 16:41
ВУЗ
МФПУ Синергия / Московский открытый институт (МОИ) / Московский технологический институт (МТИ) / МОСАП
Курс
Не указан
Стоимость
200 ₽
Демо-файлы   
1
png
Результат 100 баллов из 100 Результат 100 баллов из 100
34.5 Кбайт 34.5 Кбайт
Файлы работы   
1
Каждая работа проверяется на плагиат, на момент публикации уникальность составляет не менее 40% по системе проверки eTXT.
pdf
Искусственный интеллект (ОТВЕТЫ)
644.5 Кбайт 200 ₽
Описание

33 вопроса с ответами

Последний раз тест был сдан на 100 баллов из 100 "ОТЛИЧНО".

Год сдачи -2020-2024.

***ВАЖНО*** Перед покупкой запустите тест и сверьте подходят ли эти ответы именно Вам***

После покупки Вы получите файл с ответами на вопросы которые указаны ниже:

ПО ВСЕМ ВОПРОСАМ - ПИШИТЕ В ЛИЧНЫЕ СООБЩЕНИЯ✉️

Оглавление

1. Обучение с учителем характеризуется

*Целью обучить агента принимать оптимальные решения в среде

* Отсутствием размеченной выборки

*Наличием размеченной выборки

 2. Случайный лес – это:

*Составление композиционного алгоритма при помощи подбора случайных алгоритмов машинного обучения и их последующего голосования

*Композиционный алгоритм (обычно над решающими деревьями), основанный на идее построения нового элемента композиции на каждой итерации таким образом, что следующее приближение вектора ответов алгоритма отличается от текущего на градиент ошибки

*Метод голосования решающих деревьев, каждое из которых было обучено на собственной подвыборке объектов и подвыборке признаков

 3. Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Задача обучения сводится к задаче оптимизации на этапе:

*Выбора семейства F

*Оценки качества выбранной функции f из семейства F

*Поиска наилучшей функции из семейства F

 4. Решающие деревья обладают следующими свойствами:

*Плохо интерпретируются, чувствительны к шуму, иногда отказывают в классификации данных *Строят разделяющую гиперплоскость, не чувствительны к шуму, не переобучаются

*Легко обрабатывают пропуски данных, хорошо интерпретируются, исключают отказы классификации, обрабатывают разнотипные и неотмасштабированные данные

*Способны решать лишь задачу регрессии

 5. Задача автоматической идентификации марки машины по ее изображению – это задача

*Регрессии

*Бинарной классификации

*Многоклассовой классификации

 6. Если мы предсказываем среднюю стоимость машины в зависимости от ее класса, то класс представляет собой

*Бинарный признак

*Непрерывный признак

*Категориальный признак

 7. Задача автоматического выделения похожих новостных статей без размеченной выборки – это задача

*Регрессии

*Бинарной классификации

*Кластеризации

 8. Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Выбор модели машинного обучения происходит на этапе:

*Выбора семейства F

*Оценки качества выбранной функции f из семейства F

*Поиска наилучшей функции из семейства F

 9. Выберете верное утверждение:

*Логистическая регрессия решает задачу регрессии

*Логистическая регрессия нужна для поиска оптимальных маршрутов грузоперевозок

*Логистическая регрессия решает задачу классификации

 10. Задача классификации – это задача

*Обучения с учителем

*Обучения без учителя

*Обучения с подкреплением

 11. Эмпирический риск вводится исходя из предположения, что

*Оценка качества работы алгоритма на обучающей выборке примерно совпадает с ожидаемым качеством работы алгоритма вне ее

*Обучающая выборка выбрана из нормального распределения по всем признакам

*Оценка риска только на обучающей выборке – более правильный подход, чем оценка риска на всех возможных данных

 12. Недостатки k-means:

*Необходимость подбирать k, неустойчивость от выбора начального приближения центров кластеров

*Неинтерпретируемость

*Плохое качество работы

 13. Выберете верное утверждение:

*Для линейной регрессии возможно аналитически найти решение задачи минимизации эмпирического риска только в одномерном случае

*Линейная регрессия допускает аналитическое решение задачи минимизации суммы квадратов расстояния от предсказанных меток до верных ответов в случае любой размерности

*Для линейной регрессии не существует решения задачи минимизации эмпирического риска

 14. Процедура LearnID3 состоит в:

*Последовательном построении решающего дерева посредством поиска предиката с максимальной информативностью на каждом шаге и разделении обучающей выборки на две части по этому предикату до тех пор, пока не будет достигнуто нужное число вершин в дереве

*Последовательном построении решающего дерева посредством разбиения обучающей выборки на случайные подвыборки с сохранением отношения числа элементов одного класса к числу элементов другого класса

*В индексации вершин решающего дерева особым способом

*В особом способе полива тропических растений в наших широтах

 15. Метод K-Means - Это:

*Метрический метод классификации, основанный на усреднении расстояний до k ближайших соседей

*Метод кластеризации

*Метод валидации модели, основанный на усреднении ошибки по к прогонам модели на тестовых данных

 16. В каком случае метрика accuracy будет репрезентативной

*Когда все виды ошибок имеют для нас одинаковую важность, и может быть дисбаланс классов *Когда все виды ошибок имеют для нас одинаковую важность, но дисбаланса классов быть не должно

* Когда дисбаланс классов может быть, и ошибки могут иметь любое соотношение важности

 17. Метод опорных векторов (Support Vectors Machine, SVM):

*Строит оптимальную разделяющую гиперплоскость, максимизируя ширину полосы между двумя классами

*Аппроксимирует искомую функцию, обучаясь при помощи градиентных методов, решает задачу регрессии

*Проводит гиперповерхность, минимизируя сумму квадратов расстояний элементов обучающей выборки до этой гиперповерхности

 18. Задача понижения размерности признакового пространства – это задача

*Обучения с учителем

*Обучения без учителя

*Обучения с подкреплением

 19. Градиентный бустинг - это:

*Усиление обобщающей способности модели посредством использования нескольких градиентных методов оптимизации

*Композиционный алгоритм (обычно над решающими деревьями), основанный на идее построения нового элемента композиции на каждой итерации таким образом, что следующее приближение вектора ответов алгоритма отличается от текущего на градиент ошибки

*Композиционный алгоритм над решающими деревьями, основанный на идее голосования классификаторов, проводимого особым способом, с приписыванием константных весов каждому классификатору

 20. Если мы предсказываем средние затраты на обслуживание машины, то максимальная скорость разгона машины – это

*Бинарный признак

*Непрерывный признак

*Номинальный признак

21. Архитектура полносвязной нейронные сети основана на идее

*обобщения низкоуровневых признаков и генерирования на их основе более высокоуровневых

*Построения разделяющей гиперплоскости

*Минимизации лосс-функции без использования градиентных методов

 22. Что такое машинный перевод?

*Обучающая выборка выбрана из нормального распределения по всем признакам

*композиционный алгоритм над решающими деревьями, основанный на идее голосования классификаторов, проводимого особым способом, с приписыванием константных весов каждому классификатору

*процесс перевода текстов с одного естественного языка на другой с помощью специальной компьютерной программы

23. Функции активации в нейронных сетях:

*Нелинейны (глобально) и вносят неоднородность в сигнал при прямом проходе

*Линейны и нужны для проверки работоспособности модели

*Активируют нейросеть в разных режимах работы

24. При прямом проходе через Feed Forward Neural Network:

*Происходит обновление весов модели на основе градиентов, посчитанных на предыдущей итерации

*Происходит выстраивание архитектуры модели посредством подбора числа слоев и их размеров

*Сигнал передается посредством последовательного матричного умножения и применения нелинейных функций активации 

25. Отметьте верные высказывания о функциях активации:

*Функция активации сигмоида лежит в диапазоне [0,1] и может быть интерпретирована как вероятность, а потому часто используется для решения задач бинарной классификации. Функция ReLU - кусочно-линейная

*Функция Leacky ReLU - всюду дифференцируема. Популярная функция активации гиперболический тангенс может быть использована, как решающая функция для задачи регрессии. Производная сигмоидальной функции не выражается аналитически через значение самой функции в данной точке

*Все функции активации взаимозаменяемы вследствие того, что имеют одну и ту же область значений и область определения 

26. Переобучение – это эффект, возникающий при

*Излишней сложности модели по отношению к сложности обучающей выборки, из-за чего происходит “заучивание” данных

*Слишком долгом обучении модели, из-за чего она теряет свою предсказательную способность вследствие увеличения энтропии весов

*Усталости специалиста по машинному обучению от того, что его модели слишком долго учатся

27. Лучший способ борьбы с переобучением:

*Изменение архитектуры модели

*регуляризации

*Увеличение количества данных

28. Условия Каруша-Куна-Таккера применимы для решения:

*Любой задачи оптимизации

*Задачи выпуклой оптимизации

*Задачи оптимизации произвольной функции на выпуклом множестве Q

29. Идея Momentum состоит в:

*Вычислении градиента в точке, к которой алгоритм должен сойтись на текущем шаге, согласно посчитанному моментному члену, а не в той точке, откуда алгоритм производит шаг

*Использовании идеи физической инерции посредством добавления моментных членов, "скоростей"

*приближенном, а значит - более быстром("моментальном") вычислении градиентов в текущей точке

30. Метод подбора адаптированного learning rate на основе оценки исторических градиентов:

*Nesterov Momentum

*RMSProp

*Adagrad 

31. Наиболее популярный на текущий момент метод оптимизации, основанный на идее использования двух моментных членов, предложенный в 2015 году:

*ADAM

*Adagrad

*Adadelta

32. Все описанные в лекции алгоритмы обладают общим свойством. Каким?

*Для всех требуется вычисление матрицы Гессе оптимизируемой функции

*Для всех требуется вычисление градиентов оптимизированной функции

*Для всех требуется подсчет значения оптимизируемой функции в данной точке

33. Алгоритм Backpropagation:

*Состоит в случайном подборе весов модели до тех пор, пока не будет достигнут оптимальный набор параметров, минимизирующий ошибку

*Используется только для оптимизации полносвязных нейросетей

*Последовательном вычислении градиентов по весам модели, начиная с последнего слоя, по предактивациям соответствующего слоя и градиентам по весам следующего

Вам подходит эта работа?
Похожие работы
Реклама и PR
Дипломная работа Дипломная
19 Ноя в 11:14
13 +1
0 покупок
Реклама и PR
Контрольная работа Контрольная
17 Ноя в 23:03
13
0 покупок
Реклама и PR
Дипломная работа Дипломная
17 Ноя в 03:12
12
0 покупок
Реклама и PR
Дипломная работа Дипломная
17 Ноя в 02:56
20 +1
0 покупок
Другие работы автора
Премиум
Железобетонные конструкции
Тест Тест
29 Окт в 02:53
190 +2
4 покупки
Премиум
Электрические машины
Тест Тест
22 Окт в 13:06
271 +3
6 покупок
Премиум
Экономика
Тест Тест
18 Окт в 17:32
238 +3
10 покупок
Премиум
Юриспруденция
Тест Тест
17 Окт в 12:20
208 +2
3 покупки
Премиум
Государственное и муниципальное управление
Тест Тест
27 Сен в 01:53
107 +1
3 покупки
Премиум
Финансовое право
Тест Тест
8 Сен в 21:46
386 +1
9 покупок
Премиум
Информационные системы
Тест Тест
30 Июл в 12:48
424 +1
12 покупок
Премиум
Инвестиционный менеджмент
Тест Тест
11 Июл в 02:02
545
16 покупок
Премиум
Психология
Тест Тест
25 Июн в 14:33
316
1 покупка
Премиум
Общая психология
Тест Тест
17 Июн в 00:27
142 +2
3 покупки
Темы журнала
Показать ещё
Прямой эфир