- внимательно изучить и понять теорию – градиентный спуск, метод обратного распространения ошибки для обучения многослойного персептрона;
- подберите числовые данные для решения задачи регрессии - выборку (X, y) не менее, чем из 1000 примеров по не менее, чем 20 числовым признакам для использования в процессе обучения; необходимо привести указание на источник данных;
- разделите выборку на обучающую и тестовую в пропорции 70% к 30%;
- задайте архитектуру многослойного персептрона для решения задачи регрессии (задайте его параметры - число слоев, число нейронов на слое, вид функции активации, алгоритм обучения solver, число эпох обучения - на ваше усмотрение) и сравните предсказанные значения на обучающей (pred_train) и тестовой выборках (pred) c истинными значениями выходов (y) - по коэффициенту R2;
- оцените влияние параметров числа слоев и нейронов, а также максимального числа эпох обучения max_iter на результат (метрику R2) и сделайте подробные выводы
- результат (скрипт ipynb) представить в виде файла
Среда выполнения: Google Colab, Jupyter Notebook, с подключением необходимых пакетов
Гарантия на работу | 1 год |
Средний балл | 4.96 |
Стоимость | Назначаете сами |
Эксперт | Выбираете сами |
Уникальность работы | от 70% |