Big Data Engineer (Hadoop, Java, Python)
В архиве с 17 ноября 2016
Требуемый опыт работы: 3–6 лет
Полная занятость, полный день
Москва
Вакансия в архиве
Работодатель, вероятно, уже нашел нужного кандидата и больше не принимает отклики на эту вакансию
Похожие вакансии
Опыт от 3 до 6 лет
Работа с большими объемами разнотипных данных (данные банка и Экосистемы). Построение витрин данных для разработки и применения ML-моделей.
Понимание принципов разработки, внедрения и сопровождения ML-решений. Опыт работы с SQL, Spark, Python, CTL, ETL.
Data Engineer / Database Developer
200 000 – 400 000 ₽Москва
Опыт от 3 до 6 лет
Откликнитесь среди первыхМожно из дома
Моделировать предметную область. Проектировать логическую модель данных. Разрабатывать физическую модель данных. Разрабатывать методы управления данными. Проводить модульное (unit) тестирование.
Умение проводить исследования и сравнительный анализ. Обладание навыками прототипирования. Опыт построения распределённых систем. Опыт работы с технологиями виртуализации и контейнеризации.
Москва, Технопарк
Опыт от 1 года до 3 лет
Настраивать инструменты контроля качества данных. Работать с требованиями, поступающими от аналитиков. Решать adhoc-задачи по сборке витрин на базе BigData.
Знания Python (pandas, numpy). Знание SQL (оконные функции, виды джойнов). Знания git. Будет плюсом опыт работы с большими данными (hadoop...
Москва, Технопарк
Опыт от 1 года до 3 лет
Процессить данные, собирать витрины с помощью pyspark на хадуп-кластере (постановка – от аналитиков). Выстраивать регламенты обработки данных (Airflow).
Знание и опыт работы с Python. Знание и опыт работы с SQL. Опыт работы с Spark, Hive, Hadoop. Знание PostgeSQL.
Москва
Опыт от 3 до 6 лет
Можно из дома
Анализировать источники данных. Создавать процессы интеграции данных в DWH. Создавать процессы обновления данных внутри DWH. Помогать аналитикам с созданием витрин.
Опыт работы в DWH, Python, SQL в совершенстве. Понимание архитектуры построения хранилищ. Знание отличия Anchor от Data Vault.
Опыт от 3 до 6 лет
Загружать и обрабатывать в DWH данных внутренних и внешних систем (стек Kafka, PySpark, Hadoop, Clickhouse, AirFlow). Принимать участие в построении...
Опыт обработки больших данных, знание принципов работы БД и методологий моделирования. Продвинутый уровень владения Spark, Python, Apache AirFlow, SQL.
Москва