Cześć! Poszukujemy osoby na stanowisko Senior Data Engineer, która dołączy do zespołu naszego Klienta zajmującego się projektowaniem i rozwijaniem nowoczesnych rozwiązań w obszarze Data Lakehouse, Business Intelligence oraz zaawansowanej analityki w chmurze. Współpracując w międzynarodowym środowisku, będziesz miał(a) okazję pracować z najnowszymi technologiami w tej dziedzinie.

Lokalizacja: praca głównie zdalna (1x w miesiącu spotkanie w biurze w Warszawie)

Zakres obowiązków:

  • Projektowanie i wdrażanie nowych rozwiązań oraz wprowadzanie usprawnień w istniejących platformach danych
  • Udział w rozwoju platform danych i procesów ETL/ELT, optymalizacja przetwarzania dużych zbiorów danych zgodnie z najlepszymi praktykami inżynierii danych
  • Standaryzacja i usprawnianie procesów technicznych – implementacja standardów kodowania, testowania i zarządzania dokumentacją
  • Dbanie o jakość kodu i zgodność z przyjętymi standardami – przeprowadzanie regularnych code review
  • Aktywna współpraca z innymi ekspertami technologicznymi, w celu doskonalenia procesów oraz identyfikacji nowych wyzwań technologicznych
  • Mentoring i wsparcie zespołu w zakresie projektowania rozwiązań, optymalizacji procesów i wdrażania najlepszych praktyk

  • Udział w międzynarodowych projektach opartych na najnowocześniejszych technologiach chmurowych
  • Pokrycie kosztów certyfikacji (Microsoft, AWS, Databricks)
  • 60 płatnych godzin rocznie na naukę i rozwój
  • Możliwość wyboru między pracą zdalną a spotkaniami w biurze
  • Indywidualnie dopasowane benefity: prywatna opieka medyczna, dofinansowanie karty sportowej, kursy językowe, premie roczne i medialne oraz bonus za polecenie nowego pracownika (do 15 000 PLN)

  • Biegłość w SQL oraz Pythonie (min. 5 lat doświadczenia)
  • Co najmniej 2-letnie doświadczenie w pracy z Databricks
  • Doświadczenie w pracy w środowisku chmurowym (preferowany Azure)
  • Minimum 5-letnie doświadczenie w projektowaniu oraz implementacji rozwiązań klasy BI, ETL/ELT, Data Warehouse, Data Lake, Big Data oraz OLAP
  • Praktyczna znajomość zarówno relacyjnych, jak i nierelacyjnych
  • Doświadczenie z narzędziami typu Apache Airflow, dbt, Apache Kafka, Flink, Azure Data Factory, Hadoop/CDP
  • Znajomość zagadnień związanych z zarządzaniem danymi, jakością danych oraz przetwarzaniem wsadowym i strumieniowym
  • Umiejętność stosowania wzorców architektonicznych w obszarze danych (Data Mesh, Data Vault, Modelowanie wymiarowe, Medallion Architecture, Lambda/Kappa Architectures)
  • Praktyczna znajomość systemów kontroli wersji (Bitbucket, GitHub, GitLab)
  • Wysoko rozwinięte umiejętności komunikacyjne, otwartość na bezpośredni kontakt z Klientem końcowym
  • Certyfikaty z Databricks lub Azure będą dodatkowym atutem

Istniejemy od 2017 roku i od początku zajmujemy się rozwojem rozwiązań IT. Tworzymy systemy CRM i Campaign Management, specjalizujemy się w analityce biznesowej, Business Process Mining oraz Business Intelligence. Działamy w dwóch obszarach: realizacja własnych produktów oraz współpraca z klientami w oparciu o outsourcing.

 Crestt to firma, która wyznaje takie wartości jak partnerstwo, współpraca, rzetelność. Praca w Crestt to przede wszystkim teamwork – jesteśmy zespołem specjalistów, którzy dbają o rodzinną atmosferę i wiedzą jak współpraca jest ważnym elementem zawodowej rzeczywistości. Wspólnie podejmujemy decyzje, każdy w Crestt jest tak samo ważny. Kochamy zwierzęta! Są one częścią naszych zespołów, zawsze chętnie powitamy również Twojego pupila! 

Jakie benefity oferujemy?

  • Płaska struktura organizacyjna
  • Nieformalna atmosfera
  • Możliwość dostosowania projektów do kompetencji pracownika
  • Stałe wsparcie psychologa
  • Liczne webinary
  • Prywatna opieka medyczna „Medicover”
  • Multisport
  • Spotkania integracyjne
  • Atrakcyjny program poleceń
  • Szkolenia
  • Elastyczny czas pracy
  • Świętujemy z Tobą każdą ważną okazję!