ИТОГОВЫЙ ТЕСТ
33 вопроса с ответами
Оценка 100 баллов из 100 "ОТЛИЧНО"
Год сдачи -2024.
***ВАЖНО*** Перед покупкой запустите тест и сверьте подходят ли эти ответы именно Вам***
После покупки Вы получите файл с ответами на вопросы которые указаны ниже:
1. Обучение с учителем характеризуется
*Целью обучить агента принимать оптимальные решения в среде
* Отсутствием размеченной выборки
*Наличием размеченной выборки
2. Случайный лес – это:
*Составление композиционного алгоритма при помощи подбора случайных алгоритмов машинного обучения и их последующего голосования
*Композиционный алгоритм (обычно над решающими деревьями), основанный на идее построения нового элемента композиции на каждой итерации таким образом, что следующее приближение вектора ответов алгоритма отличается от текущего на градиент ошибки
*Метод голосования решающих деревьев, каждое из которых было обучено на собственной подвыборке объектов и подвыборке признаков
3. Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Задача обучения сводится к задаче оптимизации на этапе:
*Выбора семейства F
*Оценки качества выбранной функции f из семейства F
*Поиска наилучшей функции из семейства F
4. Решающие деревья обладают следующими свойствами:
*Плохо интерпретируются, чувствительны к шуму, иногда отказывают в классификации данных *Строят разделяющую гиперплоскость, не чувствительны к шуму, не переобучаются
*Легко обрабатывают пропуски данных, хорошо интерпретируются, исключают отказы классификации, обрабатывают разнотипные и неотмасштабированные данные
*Способны решать лишь задачу регрессии
5. Задача автоматической идентификации марки машины по ее изображению – это задача
*Регрессии
*Бинарной классификации
*Многоклассовой классификации
6. Если мы предсказываем среднюю стоимость машины в зависимости от ее класса, то класс представляет собой
*Бинарный признак
*Непрерывный признак
*Категориальный признак
7. Задача автоматического выделения похожих новостных статей без размеченной выборки – это задача
*Регрессии
*Бинарной классификации
*Кластеризации
8. Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Выбор модели машинного обучения происходит на этапе:
*Выбора семейства F
*Оценки качества выбранной функции f из семейства F
*Поиска наилучшей функции из семейства F
9. Выберете верное утверждение:
*Логистическая регрессия решает задачу регрессии
*Логистическая регрессия нужна для поиска оптимальных маршрутов грузоперевозок
*Логистическая регрессия решает задачу классификации
10. Задача классификации – это задача
*Обучения с учителем
*Обучения без учителя
*Обучения с подкреплением
11. Эмпирический риск вводится исходя из предположения, что
*Оценка качества работы алгоритма на обучающей выборке примерно совпадает с ожидаемым качеством работы алгоритма вне ее
*Обучающая выборка выбрана из нормального распределения по всем признакам
*Оценка риска только на обучающей выборке – более правильный подход, чем оценка риска на всех возможных данных
12. Недостатки k-means:
*Необходимость подбирать k, неустойчивость от выбора начального приближения центров кластеров
*Неинтерпретируемость
*Плохое качество работы
13. Выберете верное утверждение:
*Для линейной регрессии возможно аналитически найти решение задачи минимизации эмпирического риска только в одномерном случае
*Линейная регрессия допускает аналитическое решение задачи минимизации суммы квадратов расстояния от предсказанных меток до верных ответов в случае любой размерности
*Для линейной регрессии не существует решения задачи минимизации эмпирического риска
14. Процедура LearnID3 состоит в:
*Последовательном построении решающего дерева посредством поиска предиката с максимальной информативностью на каждом шаге и разделении обучающей выборки на две части по этому предикату до тех пор, пока не будет достигнуто нужное число вершин в дереве
*Последовательном построении решающего дерева посредством разбиения обучающей выборки на случайные подвыборки с сохранением отношения числа элементов одного класса к числу элементов другого класса
*В индексации вершин решающего дерева особым способом
*В особом способе полива тропических растений в наших широтах
15. Метод K-Means - Это:
*Метрический метод классификации, основанный на усреднении расстояний до k ближайших соседей
*Метод кластеризации
*Метод валидации модели, основанный на усреднении ошибки по к прогонам модели на тестовых данных
16. В каком случае метрика accuracy будет репрезентативной
*Когда все виды ошибок имеют для нас одинаковую важность, и может быть дисбаланс классов *Когда все виды ошибок имеют для нас одинаковую важность, но дисбаланса классов быть не должно
* Когда дисбаланс классов может быть, и ошибки могут иметь любое соотношение важности
17. Метод опорных векторов (Support Vectors Machine, SVM):
*Строит оптимальную разделяющую гиперплоскость, максимизируя ширину полосы между двумя классами
*Аппроксимирует искомую функцию, обучаясь при помощи градиентных методов, решает задачу регрессии
*Проводит гиперповерхность, минимизируя сумму квадратов расстояний элементов обучающей выборки до этой гиперповерхности
18. Задача понижения размерности признакового пространства – это задача
*Обучения с учителем
*Обучения без учителя
*Обучения с подкреплением
19. Градиентный бустинг - это:
*Усиление обобщающей способности модели посредством использования нескольких градиентных методов оптимизации
*Композиционный алгоритм (обычно над решающими деревьями), основанный на идее построения нового элемента композиции на каждой итерации таким образом, что следующее приближение вектора ответов алгоритма отличается от текущего на градиент ошибки
*Композиционный алгоритм над решающими деревьями, основанный на идее голосования классификаторов, проводимого особым способом, с приписыванием константных весов каждому классификатору
20. Если мы предсказываем средние затраты на обслуживание машины, то максимальная скорость разгона машины – это
*Бинарный признак
*Непрерывный признак
*Номинальный признак
21. Архитектура полносвязной нейронные сети основана на идее
*обобщения низкоуровневых признаков и генерирования на их основе более высокоуровневых
*Построения разделяющей гиперплоскости
*Минимизации лосс-функции без использования градиентных методов
22. Что такое машинный перевод?
*Обучающая выборка выбрана из нормального распределения по всем признакам
*композиционный алгоритм над решающими деревьями, основанный на идее голосования классификаторов, проводимого особым способом, с приписыванием константных весов каждому классификатору
*процесс перевода текстов с одного естественного языка на другой с помощью специальной компьютерной программы
23. Функции активации в нейронных сетях:
*Нелинейны (глобально) и вносят неоднородность в сигнал при прямом проходе
*Линейны и нужны для проверки работоспособности модели
*Активируют нейросеть в разных режимах работы
24. При прямом проходе через Feed Forward Neural Network:
*Происходит обновление весов модели на основе градиентов, посчитанных на предыдущей итерации
*Происходит выстраивание архитектуры модели посредством подбора числа слоев и их размеров
*Сигнал передается посредством последовательного матричного умножения и применения нелинейных функций активации
25. Отметьте верные высказывания о функциях активации:
*Функция активации сигмоида лежит в диапазоне [0,1] и может быть интерпретирована как вероятность, а потому часто используется для решения задач бинарной классификации. Функция ReLU - кусочно-линейная
*Функция Leacky ReLU - всюду дифференцируема. Популярная функция активации гиперболический тангенс может быть использована, как решающая функция для задачи регрессии. Производная сигмоидальной функции не выражается аналитически через значение самой функции в данной точке
*Все функции активации взаимозаменяемы вследствие того, что имеют одну и ту же область значений и область определения
26. Переобучение – это эффект, возникающий при
*Излишней сложности модели по отношению к сложности обучающей выборки, из-за чего происходит “заучивание” данных
*Слишком долгом обучении модели, из-за чего она теряет свою предсказательную способность вследствие увеличения энтропии весов
*Усталости специалиста по машинному обучению от того, что его модели слишком долго учатся
27. Лучший способ борьбы с переобучением:
*Изменение архитектуры модели
*регуляризации
*Увеличение количества данных
28. Условия Каруша-Куна-Таккера применимы для решения:
*Любой задачи оптимизации
*Задачи выпуклой оптимизации
*Задачи оптимизации произвольной функции на выпуклом множестве Q
29. Идея Momentum состоит в:
*Вычислении градиента в точке, к которой алгоритм должен сойтись на текущем шаге, согласно посчитанному моментному члену, а не в той точке, откуда алгоритм производит шаг
*Использовании идеи физической инерции посредством добавления моментных членов, "скоростей"
*приближенном, а значит - более быстром("моментальном") вычислении градиентов в текущей точке
30. Метод подбора адаптированного learning rate на основе оценки исторических градиентов:
*Nesterov Momentum
*RMSProp
*Adagrad
31. Наиболее популярный на текущий момент метод оптимизации, основанный на идее использования двух моментных членов, предложенный в 2015 году:
*ADAM
*Adagrad
*Adadelta
32. Все описанные в лекции алгоритмы обладают общим свойством. Каким?
*Для всех требуется вычисление матрицы Гессе оптимизируемой функции
*Для всех требуется вычисление градиентов оптимизированной функции
*Для всех требуется подсчет значения оптимизируемой функции в данной точке
33. Алгоритм Backpropagation:
*Состоит в случайном подборе весов модели до тех пор, пока не будет достигнут оптимальный набор параметров, минимизирующий ошибку
*Используется только для оптимизации полносвязных нейросетей
*Последовательном вычислении градиентов по весам модели, начиная с последнего слоя, по предактивациям соответствующего слоя и градиентам по весам следующего
УЧЕБНЫЕ МАТЕРИАЛЫ
1 Введение в ML
2 Практические задания для самостоятельного выполнения 1
3 Постановка задачи ML
4 Практические задания для самостоятельного выполнения 2
5 Классические алгоритмы ML. 1 часть
6 Практические задания для самостоятельного выполнения 3
7 Классические алгоритмы ML. 2 часть
8 Практические задания для самостоятельного выполнения 4
9 Метрика качества и работа с признаками
10 Практические задания для самостоятельного выполнения 5
11 Основы NLP
12 Практические задания для самостоятельного выполнения 6
13 Векторные представления слов
14 Практические задания для самостоятельного выполнения 7
15 Рекомендательные системы. Часть 1
16 Практические задания для самостоятельного выполнения 8
17 Рекомендательные системы. Часть 2
18 Практические задания для самостоятельного выполнения 9
19 Нейронные сети
20 Практические задания для самостоятельного выполнения 10
21 Компьютерное зрение
22 Практические задания для самостоятельного выполнения 11
23 Заключение