Завантаження

DataOps Architect

Вакансій: 1

Термін подання резюме до: 22.08.2025

Напрям: IT, розробка

Адреса: область Київська, місто Київ, провулок Музейний, будинок 10

Що потрібно робити:

  • Проєктувати та впроваджувати комплексні рішення DataOps, що охоплюють збір, зберігання, обробку, аналітику та споживання даних
  • Проєктувати та автоматизувати конвеєри для вилучення, трансформації та завантаження (ETL/ELT) даних, забезпечуючи їх безперервну інтеграцію та доставку
  • Розробляти та впроваджувати стратегії та інструменти для моніторингу якості даних, валідації, каталогізації та управління метаданими
  • Керувати розгортанням, конфігурацією та оптимізацією хмарних та локальних платформ для зберігання та обробки великих даних (наприклад, AWS S3, Redshift, Glue, Apache Spark, Kafka, Google Bigquery та ін.)
  • Адаптувати та застосовувати принципи CI/CD до процесів управління даними, включаючи автоматизоване тестування даних та версіонування
  • Розробляти та впроваджувати системи моніторингу для відстеження продуктивності пайплайнів даних, якості даних та інфраструктури, а також здійснювати їхню оптимізацію
  • Розробляти та впроваджувати політики та механізми безпеки даних, забезпечуючи відповідність регуляторним вимогам
  • Тісно співпрацювати з інженерами даних, аналітиками даних, ML інженерами та іншими командами, надаючи технічне керівництво та менторство. Бути містком між бізнес замовниками та технічними командами, такими як інженери даних, інженери з якості даних та DevOps інженери. Створювати та підтримувати детальну технічну документацію щодо архітектури, процесів та стандартів DataOps

Необхідні знання, досвід та особисті якості:

  • Вища освіта (технічна, IT)
  • 10+ років досвіду роботи в загальному в IT
  • 3 роки+ досвіду роботи в області Data Engineering, DevOps або DataOps, з фокусом на архітектурі даних або великих даних
  • Глибоке розуміння принципів DataOps та досвід їх практичного застосування для оптимізації життєвого циклу даних
  • Досвід проєктування, розробки та підтримки складних ETL/ELT пайплайнів даних з використанням інструментів оркестрації (бажано Apache Airflow).Досвід розробки CI/CD для Airflow
  • Досвід роботи з розподіленими системами обробки даних (наприклад, Apache Spark, Hadoop) та досвід роботи з хмарними платформами даних (наприклад, AWS S3, Redshift, Google BigQuery, Azure Data Lake)
  • Досвід роботи з Docker та Kubernetes
  • Досвід впровадження принципів CI/CD, бажано для розгортання та управління рішеннями для даних (наприклад, GitLab CI — в ідеалі, або Jenkins, Azure DevOps та ін)
  • Досвід роботи з реляційними (наприклад, PostgreSQL, MySQL) та NoSQL базами даних. Досвід роботи з мовою запитів SQL в різних базах даних
  • Досвід роботи з однією або кількома провідними хмарними платформами (AWS та GCP — в першу чергу, Azure, OCI — вітається) та їхніми сервісами для обробки та зберігання даних
  • Володіння щонайменше однією мовою програмування, що використовується для обробки даних (наприклад, Python, Scala, Java). Володіння Bash — досконало. Python — вище середнього. Python будете використовувати не лише для автоматизації, але і для пілотування рішень
  • Досвід з Liquibase або іншими подібними інструментами для керування схемами баз даних
  • Досвід налаштування та використання інструментів моніторингу та логування (наприклад, Prometheus, Grafana, ELK Stack)
  • Знання та досвід у впровадженні стратегій тестування потоків та конвеєрів даних (наприклад, юніт-тести, інтеграційні тести, тести якості даних)
  • Досконале володінням як мінімум одним інструментом для побудови CI/CD. Gitlab CI — ідеально. Github Actions, TeamCity, Jenkins тощо — вітається
  • Розуміння філософії «інфраструктура як код» та досвід використання інструментів (в першу чергу Terraform) для автоматизації розгортання інфраструктури
  • Здатність застосовувати філософію DataOps для оптимізації всього життєвого циклу даних, від джерела до споживання
  • Здатність проєктувати та будувати масштабовані, надійні та безпечні архітектури даних
  • Розуміння найкращих практик та стандартів безпеки даних, шифрування, контролю доступу та відповідності (GDPR, HIPAA тощо)
  • Вміння налаштовувати комплексні системи моніторингу продуктивності, стану та якості даних, а також системи оповіщення (перевага надається хмарним системам)
  • Git — досконале володіння. Розуміння принципів GitOps для інфраструктури даних
  • Відмінні комунікативні навички (потрібно буде співпрацювати з представниками бізнесу, Data та IT підрозділів компанії)
  • Сильні аналітичні здібності та навички вирішення складних технічних проблем
  • Досвід менторства менш досвідчених інженерів та здатність керувати технічними проєктами та командами
  • Знання англійської мови на рівні Upper-Intermediate (B2)

Додатковою перевагою буде:

  • Наявність сертифікації AWS/GCP

Ми пропонуємо:

  • Роботу в найбільшому та інноваційному банку України
  • Офіційне працевлаштування та 24 календарних дні відпустки
  • Конкурентну заробітну плату
  • Медичне страхування та корпоративний мобільний зв'язок
  • Корпоративне навчання
  • Сучасний комфортний офіс
  • Цікаві проєкти, амбіційні задачі та динамічний розвиток
  • Дружній професійний колектив та сильну команду

ПриватБанк відкритий до підтримки та працевлаштування ветеранів i ветеранок, а також людей з інвалідністю.

Для нас неприйнятною є дискримінація через стан здоров’я та фізичні можливості, вік, расову чи етнічну належність, стать і сімейний стан.

Ми готові навчати ветеранів та кандидатів з інвалідністю без досвіду роботи в банківській сфері.

Якщо ви маєте статус людини з інвалідністю або ветерана, звертайтеся на jobquestions@privatbank.ua. Фахівці ПриватБанку нададуть консультацію і супровід упродовж процесу відбору та після працевлаштування.