Основы искусственного интеллекта (тест с ответами Синергия/МОИ/ МТИ /МОСАП)

Раздел
Программирование
Тип
Просмотров
207
Покупок
6
Антиплагиат
Не указан
Размещена
20 Мар в 20:02
ВУЗ
МФПУ Синергия / Московский открытый институт (МОИ) / Московский технологический институт (МТИ) / МОСАП
Курс
Не указан
Стоимость
200 ₽
Демо-файлы   
1
jpeg
Результат 100 баллов из 100 Результат 100 баллов из 100
119.7 Кбайт 119.7 Кбайт
Файлы работы   
1
Каждая работа проверяется на плагиат, на момент публикации уникальность составляет не менее 40% по системе проверки eTXT.
pdf
Основы искусственного интеллекта (ОТВЕТЫ)
769.2 Кбайт 200 ₽
Описание

ИТОГОВЫЙ ТЕСТ

33 вопроса с ответами

Оценка 100 баллов из 100 "ОТЛИЧНО"

Год сдачи -2024.

***ВАЖНО*** Перед покупкой запустите тест и сверьте подходят ли эти ответы именно Вам***

После покупки Вы получите файл с ответами на вопросы которые указаны ниже:

ПО ВСЕМ ВОПРОСАМ - ПИШИТЕ В ЛИЧНЫЕ СООБЩЕНИЯ✉️

Оглавление

1. Обучение с учителем характеризуется

*Целью обучить агента принимать оптимальные решения в среде

* Отсутствием размеченной выборки

*Наличием размеченной выборки

2. Случайный лес – это:

*Составление композиционного алгоритма при помощи подбора случайных алгоритмов машинного обучения и их последующего голосования

*Композиционный алгоритм (обычно над решающими деревьями), основанный на идее построения нового элемента композиции на каждой итерации таким образом, что следующее приближение вектора ответов алгоритма отличается от текущего на градиент ошибки

*Метод голосования решающих деревьев, каждое из которых было обучено на собственной подвыборке объектов и подвыборке признаков

3. Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Задача обучения сводится к задаче оптимизации на этапе:

*Выбора семейства F

*Оценки качества выбранной функции f из семейства F

*Поиска наилучшей функции из семейства F

4. Решающие деревья обладают следующими свойствами:

*Плохо интерпретируются, чувствительны к шуму, иногда отказывают в классификации данных *Строят разделяющую гиперплоскость, не чувствительны к шуму, не переобучаются

*Легко обрабатывают пропуски данных, хорошо интерпретируются, исключают отказы классификации, обрабатывают разнотипные и неотмасштабированные данные

*Способны решать лишь задачу регрессии

5. Задача автоматической идентификации марки машины по ее изображению – это задача

*Регрессии

*Бинарной классификации

*Многоклассовой классификации

6. Если мы предсказываем среднюю стоимость машины в зависимости от ее класса, то класс представляет собой

*Бинарный признак

*Непрерывный признак

*Категориальный признак

7. Задача автоматического выделения похожих новостных статей без размеченной выборки – это задача

*Регрессии

*Бинарной классификации

*Кластеризации

8. Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Выбор модели машинного обучения происходит на этапе:

*Выбора семейства F

*Оценки качества выбранной функции f из семейства F

*Поиска наилучшей функции из семейства F

9. Выберете верное утверждение:

*Логистическая регрессия решает задачу регрессии

*Логистическая регрессия нужна для поиска оптимальных маршрутов грузоперевозок

*Логистическая регрессия решает задачу классификации

10. Задача классификации – это задача

*Обучения с учителем

*Обучения без учителя

*Обучения с подкреплением

11. Эмпирический риск вводится исходя из предположения, что

*Оценка качества работы алгоритма на обучающей выборке примерно совпадает с ожидаемым качеством работы алгоритма вне ее

*Обучающая выборка выбрана из нормального распределения по всем признакам

*Оценка риска только на обучающей выборке – более правильный подход, чем оценка риска на всех возможных данных

12. Недостатки k-means:

*Необходимость подбирать k, неустойчивость от выбора начального приближения центров кластеров

*Неинтерпретируемость

*Плохое качество работы

13. Выберете верное утверждение:

*Для линейной регрессии возможно аналитически найти решение задачи минимизации эмпирического риска только в одномерном случае

*Линейная регрессия допускает аналитическое решение задачи минимизации суммы квадратов расстояния от предсказанных меток до верных ответов в случае любой размерности

*Для линейной регрессии не существует решения задачи минимизации эмпирического риска

14. Процедура LearnID3 состоит в:

*Последовательном построении решающего дерева посредством поиска предиката с максимальной информативностью на каждом шаге и разделении обучающей выборки на две части по этому предикату до тех пор, пока не будет достигнуто нужное число вершин в дереве

*Последовательном построении решающего дерева посредством разбиения обучающей выборки на случайные подвыборки с сохранением отношения числа элементов одного класса к числу элементов другого класса

*В индексации вершин решающего дерева особым способом

*В особом способе полива тропических растений в наших широтах

15. Метод K-Means - Это:

*Метрический метод классификации, основанный на усреднении расстояний до k ближайших соседей

*Метод кластеризации

*Метод валидации модели, основанный на усреднении ошибки по к прогонам модели на тестовых данных

16. В каком случае метрика accuracy будет репрезентативной

*Когда все виды ошибок имеют для нас одинаковую важность, и может быть дисбаланс классов *Когда все виды ошибок имеют для нас одинаковую важность, но дисбаланса классов быть не должно

* Когда дисбаланс классов может быть, и ошибки могут иметь любое соотношение важности

17. Метод опорных векторов (Support Vectors Machine, SVM):

*Строит оптимальную разделяющую гиперплоскость, максимизируя ширину полосы между двумя классами

*Аппроксимирует искомую функцию, обучаясь при помощи градиентных методов, решает задачу регрессии

*Проводит гиперповерхность, минимизируя сумму квадратов расстояний элементов обучающей выборки до этой гиперповерхности

18. Задача понижения размерности признакового пространства – это задача

*Обучения с учителем

*Обучения без учителя

*Обучения с подкреплением

19. Градиентный бустинг - это:

*Усиление обобщающей способности модели посредством использования нескольких градиентных методов оптимизации

*Композиционный алгоритм (обычно над решающими деревьями), основанный на идее построения нового элемента композиции на каждой итерации таким образом, что следующее приближение вектора ответов алгоритма отличается от текущего на градиент ошибки

*Композиционный алгоритм над решающими деревьями, основанный на идее голосования классификаторов, проводимого особым способом, с приписыванием константных весов каждому классификатору

20. Если мы предсказываем средние затраты на обслуживание машины, то максимальная скорость разгона машины – это

*Бинарный признак

*Непрерывный признак

*Номинальный признак

21. Архитектура полносвязной нейронные сети основана на идее

*обобщения низкоуровневых признаков и генерирования на их основе более высокоуровневых

*Построения разделяющей гиперплоскости

*Минимизации лосс-функции без использования градиентных методов

22. Что такое машинный перевод?

*Обучающая выборка выбрана из нормального распределения по всем признакам

*композиционный алгоритм над решающими деревьями, основанный на идее голосования классификаторов, проводимого особым способом, с приписыванием константных весов каждому классификатору

*процесс перевода текстов с одного естественного языка на другой с помощью специальной компьютерной программы

23. Функции активации в нейронных сетях:

*Нелинейны (глобально) и вносят неоднородность в сигнал при прямом проходе

*Линейны и нужны для проверки работоспособности модели

*Активируют нейросеть в разных режимах работы

24. При прямом проходе через Feed Forward Neural Network:

*Происходит обновление весов модели на основе градиентов, посчитанных на предыдущей итерации

*Происходит выстраивание архитектуры модели посредством подбора числа слоев и их размеров

*Сигнал передается посредством последовательного матричного умножения и применения нелинейных функций активации

25. Отметьте верные высказывания о функциях активации:

*Функция активации сигмоида лежит в диапазоне [0,1] и может быть интерпретирована как вероятность, а потому часто используется для решения задач бинарной классификации. Функция ReLU - кусочно-линейная

*Функция Leacky ReLU - всюду дифференцируема. Популярная функция активации гиперболический тангенс может быть использована, как решающая функция для задачи регрессии. Производная сигмоидальной функции не выражается аналитически через значение самой функции в данной точке

*Все функции активации взаимозаменяемы вследствие того, что имеют одну и ту же область значений и область определения

26. Переобучение – это эффект, возникающий при

*Излишней сложности модели по отношению к сложности обучающей выборки, из-за чего происходит “заучивание” данных

*Слишком долгом обучении модели, из-за чего она теряет свою предсказательную способность вследствие увеличения энтропии весов

*Усталости специалиста по машинному обучению от того, что его модели слишком долго учатся

27. Лучший способ борьбы с переобучением:

*Изменение архитектуры модели

*регуляризации

*Увеличение количества данных

28. Условия Каруша-Куна-Таккера применимы для решения:

*Любой задачи оптимизации

*Задачи выпуклой оптимизации

*Задачи оптимизации произвольной функции на выпуклом множестве Q

29. Идея Momentum состоит в:

*Вычислении градиента в точке, к которой алгоритм должен сойтись на текущем шаге, согласно посчитанному моментному члену, а не в той точке, откуда алгоритм производит шаг

*Использовании идеи физической инерции посредством добавления моментных членов, "скоростей"

*приближенном, а значит - более быстром("моментальном") вычислении градиентов в текущей точке

30. Метод подбора адаптированного learning rate на основе оценки исторических градиентов:

*Nesterov Momentum

*RMSProp

*Adagrad

31. Наиболее популярный на текущий момент метод оптимизации, основанный на идее использования двух моментных членов, предложенный в 2015 году:

*ADAM

*Adagrad

*Adadelta

32. Все описанные в лекции алгоритмы обладают общим свойством. Каким?

*Для всех требуется вычисление матрицы Гессе оптимизируемой функции

*Для всех требуется вычисление градиентов оптимизированной функции

*Для всех требуется подсчет значения оптимизируемой функции в данной точке

33. Алгоритм Backpropagation:

*Состоит в случайном подборе весов модели до тех пор, пока не будет достигнут оптимальный набор параметров, минимизирующий ошибку

*Используется только для оптимизации полносвязных нейросетей

*Последовательном вычислении градиентов по весам модели, начиная с последнего слоя, по предактивациям соответствующего слоя и градиентам по весам следующего

Список литературы

Теории и системы искусственного интеллекта

УЧЕБНЫЕ МАТЕРИАЛЫ

1 Введение в ML

2 Практические задания для самостоятельного выполнения 1

3 Постановка задачи ML

4 Практические задания для самостоятельного выполнения 2

5 Классические алгоритмы ML. 1 часть

6 Практические задания для самостоятельного выполнения 3

7 Классические алгоритмы ML. 2 часть

8 Практические задания для самостоятельного выполнения 4

9 Метрика качества и работа с признаками

10 Практические задания для самостоятельного выполнения 5

11 Основы NLP

12 Практические задания для самостоятельного выполнения 6

13 Векторные представления слов

14 Практические задания для самостоятельного выполнения 7

15 Рекомендательные системы. Часть 1

16 Практические задания для самостоятельного выполнения 8

17 Рекомендательные системы. Часть 2

18 Практические задания для самостоятельного выполнения 9

19 Нейронные сети

20 Практические задания для самостоятельного выполнения 10

21 Компьютерное зрение

22 Практические задания для самостоятельного выполнения 11

23 Заключение

Вам подходит эта работа?
Похожие работы
Искусственный интеллект
Контрольная работа Контрольная
14 Ноя в 19:04
20
0 покупок
Искусственный интеллект
Тест Тест
6 Ноя в 12:36
54
0 покупок
Другие работы автора
Премиум
Железобетонные конструкции
Тест Тест
29 Окт в 02:53
176 +4
3 покупки
Премиум
Электрические машины
Тест Тест
22 Окт в 13:06
262 +3
6 покупок
Премиум
Экономика
Тест Тест
18 Окт в 17:32
229 +2
9 покупок
Премиум
Юриспруденция
Тест Тест
17 Окт в 12:20
200 +2
3 покупки
Премиум
Государственное и муниципальное управление
Тест Тест
27 Сен в 01:53
101 +2
3 покупки
Премиум
Финансовое право
Тест Тест
8 Сен в 21:46
382 +1
9 покупок
Премиум
Информационные системы
Тест Тест
30 Июл в 12:48
422
12 покупок
Премиум
Инвестиционный менеджмент
Тест Тест
11 Июл в 02:02
544
16 покупок
Премиум
Психология
Тест Тест
25 Июн в 14:33
314
1 покупка
Премиум
Психофизиология
Тест Тест
25 Июн в 13:59
344 +1
7 покупок
Премиум
Психология развития
Тест Тест
25 Июн в 13:52
294 +1
1 покупка
Темы журнала
Показать ещё
Прямой эфир