Привіт :)

Шукаємо Middle Data Engineer у компанію Universe.

На даній позиції ти будеш працювати у команді з Артемом Збранковим - Data Engineer. Майже 2 роки тому Артем приєднався до команди Universe на позицію backend девелопера. До цього працював на аналогічній позиції в компанії, що займалась спортивним брендингом. Наразі Артем створює умови для роботи наших аналiтикiв.

Universe — продуктова ІТ-компанія, яка створює функціональні бізнес-додатки (утиліти для iOS) та розвиває власний R&D-центр. За чотири роки ми зібрали команду з 60+ фахівців, яка досягла третього місця у світі за доходом як паблішер утиліт.

Наші продукти завантажили близько 40 млн користувачів. Найвідоміші з них: Scan Guru, Translator Guru, Cleaner Guru та освітня lifestyle-платформа Wisey.

Процеси в нашій компанії побудовані на data-driven підході та зараз нам потрібен Middle Data Engineer, який посилить нашу команду та буде застосовувати сучасні технології та методики, щоб забезпечити безперервний та якісний потік даних у корпоративне сховище даних, а також зможе працювати над побудовою DWH з нуля.

Тобі точно до нас, якщо ти хочеш:

  • Працювати з трендовим стеком — експериментувати та інтегрувати нові технології.
  • Розвивати свій рівень сеніорності — ти будеш працювати з різноманітними сервісами, тим самим розширювати свою експертизу.
  • Впливати на продукт — ми цінуємо проактивність, тому кожен з команди може пропонувати ідеї, наш девіз — “треба тестити!”.

Які інструменти ми використовуємо:

  • AWS (s3, athena, glue, eks)
  • Kubernetes (Helm, ArgoCD, Spark-Operator)
  • Apache Spark
  • CE3

З якими задачами будеш працювати:

  • Автоматизовувати збір даних з джерел API
  • Оптимізовувати роботу скриптів (індексація, партиціонування)
  • Налаштовувати моніторинг якості та звіряння даних
  • Будувати пайплайни для збору вітрин для скорингу штучного інтелекту
  • Робота з документацією та версіонуванням змін

Що потрібно, щоб приєднатись до нас:

  • Від 1 року досвіду на аналогічній позиції
  • Навички роботи з AWS (або GCP, Azure)
  • Досвід роботи з SQL, Python / Java / Scala
  • Навички роботи з Docker та Apache Spark

Буде перевагою, якщо маєш:

  • Досвід роботи з Machine learning
  • Навички роботи з Data version control
  • Досвід роботи з Appsflyer та Amplitude
  • Навички роботи з DAG / Airflow

Що ми пропонуємо:

  • Змішаний формат роботи (віддалено/офіс) або ж допомогу із релокацією у безпечні регіони.
  • Гнучкий графік — працюй у комфортному для тебе ритмі.
  • Конкурентну заробітну плату
  • 20 робочих днів відпустки, 100% оплату лікарняних.
  • Безкоштовні онлайн консультації з корпоративним лікарем.
  • Компенсація уроків англійської у школах-партнерах
  • Доступи до корпоративної бібліотеки та різноманітних курсів
  • Команду, що підтримає у найскладніші часи.


Чекаємо на твій відгук!