Wymagania (obligatoryjne)
- Minimum 3 lata doświadczenia jako DevOps Engineer/Administrator systemów Big Data,
- Udział w co najmniej jednym wdrożeniu produkcyjnym projektu IT,
- Doświadczenie w projektach z obszaru Big Data/przetwarzania dużych wolumenów danych,
- Doświadczenie z klastrami High Availability,
- Znajomość i umiejętność zarządzania HDFS,
- Znajomość ekosystemu Apache Hadoop (np.
 
 Airflow, Ranger) w zakresie instalacji i konfiguracji,
- Znajomość i umiejętność konfiguracji Apache Spark,
- Znajomość Ansible,
- Znajomość standardów CI/CD,
- Znajomość Kubernetes oraz Docker,
- Umiejętność pisania skryptów w powłoce (shell),
- Dobra organizacja pracy własnej i zespołu, orientacja na cele,
- Umiejętność automatyzacji codziennych zadań,
- Komunikatywność, kreatywność, samodzielność, odporność na stres,
- Odpowiedzialność i inicjatywa w powierzonym obszarze,
- Dociekliwość w rozwiązywaniu problemów i zapobieganiu awariom.
 
Mile widziane (kompetencje dodatkowe)
- Udział w projektach Big Data/CI/CD/High Availability,
- Doświadczenie w obszarze hurtowni danych, systemów e-zdrowia, ochrony zdrowia,
- Znajomość baz danych PostgreSQL/EDB,
- Praktyczne wykorzystanie Hadoop/Spark do przetwarzania dużych zbiorów danych,
- Certyfikaty: Agile PM, Cloudera CCAH lub równoważne.
 
Tech stack: HDFS, Apache Hadoop, Apache Airflow, Apache Ranger, Apache Spark, Ansible, CI/CD, Kubernetes, Docker, Shell scripting, PostgreSQL, EDB.