Я начала учиться на курсе аналитики данных с 0 опытом. Цель - получить новые навыки для смены сферы деятельности. Курс оправдал ожидания, оценка 9 из 10. Поддержка группы и кураторов была отличной. Чат и куратор Дарья Виноградова всегда помогали, давали обратную связь. Очень понравились лекции Анатолия Карпова, Александра Манаенкова (просто ВААААУУУУ). Интересные задания были по теории вероятностей, sql,питону (не думала, что так понравится язык). Внимание уделили и визуализации, что основа для аналитика. Много тем, обучение крутое! Методология классно проложена и реализована.Было пару моментов, когда платформа ложилась, но быстро все исправляли. Не успела пройти Airflow из-за того, что плохо спланировала время. В целом, курс оставил хорошее впечатление. Сейчас пойду на обучение "Симулятор аналитика" и далее в хард аналитику.
много практики
курс относительно дорогой
Курс "Инженер данных", поток 45
Несмотря на то что у меня уже был определённый опыт, некоторые вещи стали реальным открытием. Например, что помимо классических нормальных форм существуют методологии Data Vault и Anchor Modelling до курса даже не знал о них. Наконец-то стало понятно, что из себя на практике представляет Big Data. Попробовал кучу инструментов. Впервые поработал с GitLab - намучился с конфликтами слияния. Поработал с Airflow: здесь, честно, хотелось бы больше уроков. Финальный проект сделал относительно легко, но застрял на модуле «Облачное хранилище». Главное для меня - действительно много практики. Нужно было реально выделять время, чтобы всё пройти и понять материал. Если возникали вопросы, поддержка реагировала оперативно. В общем, не скажу, что после курса стал полноценным инженером данных, но появилось ощущение уверенности: теперь понимаю, что если сесть и подумать (или погуглить) - в принципе справлюсь с любой задачей.
собственная платформа karpov.courses, все материалы, от записанных лекций до текстовых конспектов, структурированы и остаются с тобой навсегда
нет
Инженер данных
Структура курса продумана блестяще. От проектирования DWH и основ MPP СУБД до автоматизации ETL, работы с Big Data и облачными хранилищами - рассмотрены ключевые аспекты работы инженера данных. Проект «построить сквозной процесс от Data Lake на pySpark до хранилища на S3 и Greenplum, связав всё в DAG Airflow» - реальная задача, которую ждешь от качественного курса. Выполняя его, с головой погружаешься в рабочие процессы, а поддержка команды наставников не позволяет опустить руки.