-
Разработка и поддержка data-pipelines;
-
Работа с ClickHouse (сборка ADB) и другими компонентами хранилища;
-
Интеграция и поддержка потоков данных с использованием Kafka и Debezium;
-
Трансформация данных с помощью DBT и управление workflow через AirFlow;
-
Анализ структуры источников данных и оптимизация производительности;
-
Настройка и контроль Data Quality checks;
-
Взаимодействие с бизнес-подразделениями для реализации требований к данным.
-
Опыт работы инженером данных от 4 лет;
-
Опыт работы с ClickHouse от 2 лет (сборка ADB);
-
Опыт работы с компонентами стека: GreenPlum, Kafka, Debezium, DBT, AirFlow;
-
Опыт работы с SQL;
-
Знание Python — будет плюсом;
-
Опыт системного анализа и работы с финансовыми/большими данными — приветствуется.