Инженер данных

Обязанности

  • Разработка batch и streaming потоков данных, используя Apache Kafka, Airflow, а также используя собственное решение для streaming обработки данных (selfservice etl)
  • Проработка требований и согласование способов интеграции внешних источников совместно с системным аналитиком, data архитектором
  • Предоставление поддержки data-потребителям по вопросам, связанным с использованием данных

Требования

  • Аналогичный опыт работы не менее 1 года
  • Опыт разработки ETL процессов и работы с оркестраторами (Airflow / Dagster)
  • Отличное знание SQL и опыт работы с реляционными базами данных
  • Опыт работы с ClickHouse

Будет плюсом

  • Понимание концепций построения хранилищ данных
  • Опыт работы с Apache Kafka для интеграции и передачи данных
  • Опыт работы с MPP СУБД и понимание их архитектуры

Условия

  • Конкурентный уровень з/п, размер обсуждается по итогам собеседования и квалификации
  • Официальное оформление по ТК РФ
  • Офис в шаговой доступности от метро (центр), либо удаленная работа/гибрид
  • Гибкое начало рабочего дня, график 5/2, выходные - суббота, воскресенье
  • Непрерывное обучение и развитие профессиональных навыков
  • Современный стек технологий

Откликнуться на вакансию

Или прикрепите файл (DOC, DOCX, PDF, не более 5 МБ)