1.ETL: подготовка (preprocessing), исследовательский анализ данных
Выбрать индивидуальное задание:
- можно использовать “свои” данные
- использовать подготовленные датасеты
- или использовать датасеты с Kaggle
1.2. Используя любую аналитическую платформу Loginom, Knime, RapidMiner (любую на выбор или в Colab) выполнить консолидацию данных кейса (если кейс состоит из нескольких таблиц), провести очистку, трансформацию данных (ETL), выполнить preprocessing данных (https://www.sv-europe.com/crisp-dm-methodology/), провести исследовательский анализ данных (EDA) путем создания различных визуализаций и описательных статистик.
2.Платформы BI: построить BI Desktop/Tableau Public / Yandex DataLens (используя подготовленный датасет из предыдущего задания) построить дашборды, выявить инсайты, оформить истории (Story), опубликовать в своем аккаунте в Power BI/Tableau Public/Yandex DataLens), поделиться аналитическим приложением.
2.2. Обогатить данные кейса: провести ABC-XYZ, RFM-анализ
3. Заключение (вывод по всей работе)
Четкий и краткий вывод по проведенному анализу кейса.
(Например: максимальные продажи товара были в такие то месяцы, самая продаваемая категория такая то, в таких то странах и это все визуализировано и т.д.)
Гарантия на работу | 1 год |
Средний балл | 4.96 |
Стоимость | Назначаете сами |
Эксперт | Выбираете сами |
Уникальность работы | от 70% |