Ответы представлены на ИТОГОВЫЙ ТЕСТ
Результат - 100 баллов
Перед покупкой сверьте список вопросов и убедитесь, что вам нужны ответы именно на эти вопросы!
С вопросами вы можете ознакомиться ДО покупки.
Для быстрого поиска вопроса используйте Ctrl+F.
При возникновении вопросов, сложностей или необходимости пройти тест по другому предмету пишите в личные сообщения https://studwork.ru/mail/259571
Другие мои работы можно найти по ссылке https://studwork.ru/shop?user=259571
Ответы вы сможете скачать сразу после покупки.
В каком случае метрика accuracy будет репрезентативной
· Когда все виды ошибок имеют для нас одинаковую важность, и может быть дисбаланс классов
· Когда все виды ошибок имеют для нас одинаковую важность, но дисбаланса классов быть не должно
· Когда дисбаланс классов может быть, и ошибки могут иметь любое соотношение важности
Выберете верное утверждение:
· Логистическая регрессия решает задачу регрессии
· Логистическая регрессия нужна для поиска оптимальных маршрутов грузоперевозок
· Логистическая регрессия решает задачу классификации
Выберете верное утверждение:
· Для линейной регрессии возможно аналитически найти решение задачи минимизации эмпирического риска только в одномерном случае
· Линейная регрессия допускает аналитическое решение задачи минимизации суммы квадратов расстояния от предсказанных меток до верных ответов в случае любой размерности
· Для линейной регрессии не существует решения задачи минимизации эмпирического риска
Градиентный бустинг - это:
· Усиление обобщающей способности модели посредством использования нескольких градиентных методов оптимизации
· Композиционный алгоритм (обычно над решающими деревьями), основанный на идее построения нового элемента композиции на каждой итерации таким образом, что следующее приближение вектора ответов алгоритма отличается от текущего на градиент ошибки
· Композиционный алгоритм над решающими деревьями, основанный на идее голосования классификаторов, проводимого особым способом, с приписыванием константных весов каждому классификатору
Если мы предсказываем средние затраты на обслуживание машины, то максимальная скорость разгона машины – это
· Бинарный признак
· Непрерывный признак
· Номинальный признак
Если мы предсказываем среднюю стоимость машины в зависимости от ее класса, то класс представляет собой
· Бинарный признак
· Непрерывный признак
· Категориальный признак
Задача автоматического выделения похожих новостных статей без размеченной выборки – это задача
· Регрессии
· Бинарной классификации
· Кластеризации
Задача автоматической идентификации марки машины по ее изображению – это задача
· Регрессии
· Бинарной классификации
· Многоклассовой классификации
Задача классификации – это задача
· Обучения с учителем
· Обучения без учителя
· Обучения с подкреплением
Задача понижения размерности признакового пространства – это задача
· Обучения с учителем
· Обучения без учителя
· Обучения с подкреплением
Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Выбор модели машинного обучения происходит на этапе:
· Выбора семейства F
· Оценки качества выбранной функции f из семейства F
· Поиска наилучшей функции из семейства F
Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Задача обучения сводится к задаче оптимизации на этапе:
· Выбора семейства F
· Оценки качества выбранной функции f из семейства F
· Поиска наилучшей функции из семейства F
Метод K-Means - Это :
· Метрический метод классификации, основанный на усреднении расстояний до k ближайших соседей
· Метод кластеризации
· Метод валидации модели, основанный на усреднении ошибки по к прогонам модели на тестовых данных
Метод опорных векторов (Support Vectors Machine, SVM):
· Строит оптимальную разделяющую гиперплоскость, максимизируя ширину полосы между двумя классами
· Аппроксимирует искомую функцию, обучаясь при помощи градиентных методов, решает задачу регрессии
· Проводит гиперповерхность, минимизируя сумму квадратов расстояний элементов обучающей выборки до этой гиперповерхности
Недостатки k-means:
· Необходимость подбирать k, неустойчивость от выбора начального приближения центров кластеров
· Неинтерпретируемость
· Плохое качество работы
Обучение с учителем характеризуется
· Целью обучить агента принимать оптимальные решения в среде
· Отсутствием размеченной выборки
· Наличием размеченной выборки
Процедура LearnID3 состоит в:
· Последовательном построении решающего дерева посредством поиска предиката с максимальной информативностью на каждом шаге и разделении обучающей выборки на две части по этому предикату до тех пор, пока не будет достигнуто нужное число вершин в дереве
· Последовательном построении решающего дерева посредством разбиения обучающей выборки на случайные подвыборки с сохранением отношения числа элементов одного класса к числу элементов другого класса
· В индексации вершин решающего дерева особым способом
· В особом способе полива тропических растений в наших широтах
Решающие деревья обладают следующими свойствами:
· Плохо интерпретируются, чувствительны к шуму, иногда отказывают в классификации данных
· Строят разделяющую гиперплоскость, не чувствительны к шуму, не переобучаются
· Легко обрабатывают пропуски данных, хорошо интерпретируются, исключают отказы классификации, обрабатывают разнотипные и неотмасштабированные данные
· Способны решать лишь задачу регрессии
Случайный лес – это:
· Составление композиционного алгоритма при помощи подбора случайных алгоритмов машинного обучения и их последующего голосования
· Композиционный алгоритм (обычно над решающими деревьями), основанный на идее построения нового элемента композиции на каждой итерации таким образом, что следующее приближение вектора ответов алгоритма отличается от текущего на градиент ошибки
· Метод голосования решающих деревьев, каждое из которых было обучено на собственной подвыборке объектов и подвыборке признаков
Эмпирический риск вводится исходя из предположения, что
· Оценка качества работы алгоритма на обучающей выборке примерно совпадает с ожидаемым качеством работы алгоритма вне ее
· Обучающая выборка выбрана из нормального распределения по всем признакам
· Оценка риска только на обучающей выборке – более правильный подход, чем оценка риска на всех возможных данных