1. ETL: подготовка (preprocessing), исследовательский анализ данных
1.1. Выбрать индивидуальное задание:
- можно использовать “свои” данные
- использовать подготовленные датасеты
(https://drive.google.com/drive/folders/1b3pGfEhAJpq8yuI6Eua1eOTEfiOg
4kel?usp=sharing)
- или использовать датасеты с Kaggle
(https://www.kaggle.com/datasets?fileType=csv).
1.2. Используя любую аналитическую платформу Loginom, Knime,
RapidMiner (любую на выбор или в Colab) выполнить консолидацию данных
кейса (если кейс состоит из нескольких таблиц), провести очистку,
трансформацию данных (ETL), выполнить preprocessing данных
(https://www.sv-europe.com/crisp-dm-methodology/), провести
исследовательский анализ данных (EDA) путем создания различных
визуализаций и описательных статистик.
2. Платформы BI:
2.1. В Power BI Desktop/Tableau Public / Yandex DataLens (используя
подготовленный датасет из предыдущего задания) построить дашборды,
выявить инсайты, оформить истории (Story), опубликовать в своем аккаунте в
Power BI/Tableau Public/Yandex DataLens), поделиться аналитическим
приложением.
2.2. Обогатить данные кейса: провести ABC-XYZ, RFM-анализ
3. Заключение (вывод по всей работе)
Четкий и краткий вывод по проведенному анализу кейса.
Гарантия на работу | 1 год |
Средний балл | 4.96 |
Стоимость | Назначаете сами |
Эксперт | Выбираете сами |
Уникальность работы | от 70% |