Data engineer / Инженер данных / Аналитик

В архиве с 9 июня 2023

Требуемый опыт работы: 1–3 года

Полная занятость, полный день

ЧУ ДО Московская школа программистов
4,5

Москва, Ботанический сад, Ботанический сад, улица Докукина, 16с3

Вакансия в архиве

Работодатель, вероятно, уже нашел нужного кандидата и больше не принимает отклики на эту вакансию

Похожие вакансии

Опыт от 1 года до 3 лет
Создавать и улучшать процессы обработки данных (NiFi, Airflow, SQL). Оптимизировать запросы к данным (партиционирование, индексы, дистрибьюция, ... ). Делать витрины (Greenplum, Clickhouse, ... ).
Уровень: Middle / Senior. Знания принципов работы БД, построения ХД. Опыт разработки ETL процессов (NiFi, Pentaho, Informatica, SSIS, Spark).
Опыт от 1 года до 3 лет
Обобщаем все клиентские взаимодействия с компанией в одну историю, под одним универсальным идентификатором. Прогнозируем и корректируем общую выручку от клиента...
Клиентский опыт: Проработал от 2-х лет на должности data engineer. Знаешь SQL на высоком уровне (в т. ч.
Опыт от 1 года до 3 лет
Анализ требований к витринам данных (взаимодействие с владельцем продукта, BI-разработчиками, data scientist-ами). Поиск и исследование источников данных для...
Опыт разработки на Spark, Scala/Python от 2 лет. Знание стека: Hadoop, Airflow, PostgreSQL, Kafka.

Data Engineer

от 220 000
Опыт от 1 года до 3 лет
Разрабатывать и сопровождать решения для пакетной и потоковой выгрузки данных из корпоративных и внешних систем в аналитическое хранилище (основной стек...
Опыт обработки больших данных, знание принципов работы БД и методологий моделирования. Продвинутый уровень владения Spark, Python, Apache AirFlow, SQL.

Data Engineer

от 150 000
Москва
Опыт от 1 года до 3 лет
Разработка процедур загрузки и обработки данных с помощью языка программирования Python в среде Azure Data Bricks / Azure Data Factory.
Знание принципов построения баз данных и принципов построения запросов из различных приложений к ним. Опыт разработки на языке Python, в...
Опыт от 3 до 6 лет
Можно из дома
Разрабатывать витрины данных. Интегрировать новые источники данных в DataLake. Обрабатывать потоковые данные (streaming). Контролировать качество загружаемых данных. Проводить код ревью.
Понимание работы СУБД и принципов построения хранилищ данных. Опыт работы с Hadoop (Spark, HDFS, YARN etc.). Отличное знание SQL, Python...