💼 Profil kandydata

Szukamy osoby z doświadczeniem technicznym i biznesowym, która dobrze odnajdzie się w bezpośrednim kontakcie z klientem. Kluczowa jest samodzielność, inicjatywa i gotowość do zaangażowania w działania zarówno projektowe, jak i wewnętrzne/organizacyjne.

Lokalizacja: Warszawa lub zdalnie (na początku współpracy wymagane 2 dni onboardingu w biurze, w późniejszym etapie oczekujemy wizyt w biurze raz na miesiąc/dwa miesiące)

Twoje zadania:

  • Projektowanie rozwiązań opartych o usługi chmurowe (AWS) z uwzględnieniem wymagań klienta i najlepszych praktyk architektonicznych
  • Współtworzenie i rozwój nowoczesnych procesów przetwarzania danych (ETL/ELT) z wykorzystaniem Apache Spark (głównie PySpark)
  • Udział w spotkaniach z klientem – prezentowanie rozwiązań, zbieranie wymagań, doradztwo techniczne
  • Wspieranie zespołów developerskich w implementacji rozwiązań (code review, konsultacje, rozwiązywanie problemów)
  • Tworzenie i utrzymywanie dokumentacji architektonicznej
  • Wdrażanie rozwiązań CI/CD oraz zarządzanie infrastrukturą jako kodem (IaC)
  • Zapewnienie jakości i spójności danych poprzez dobór odpowiednich narzędzi i mechanizmów kontrolnych
  • Inicjowanie i udział w działaniach usprawniających procesy wewnętrzne oraz dzielenie się wiedzą w zespole

Rozwiązania core'owe dla roli:

  • AWS S3 – znajomość różnych klas przechowywania, versioning, struktura bucketów i prefixów
  • Apache Spark (w szczególności PySpark), np. w usługach: Glue, EMR, Databricks, Synapse
  • Git – zarządzanie branchami, rozwiązywanie konfliktów, code review
  • Format Parquet – wiedza o strukturze kolumnowej, ewolucji schematu, partycjonowaniu danych
  • Python – doświadczenie programistyczne
  • SQL – zaawansowane zapytania (CTE, funkcje okienkowe, procedury składowane)
  • Hive Metastore (np. Glue Catalog, Databricks, Nifi, Presto itd.)
  • Airflow

Istotne rozwiązania/technologie:

  • Infrastructure-as-Code (IaC) – np. CloudFormation, Terraform, Ansible, ARM, Chef
  • CI/CD – np. CodePipeline, GitHub Actions, GitLab, Jenkins, TeamCity
  • AWS GlueAWS Lambda (lub ich odpowiedniki na Azure/GCP)
  • AWS Redshift – w tym Redshift Spectrum, procedury, materializowane widoki, tymczasowe tabele
  • AWS Step Functions
  • dbt
  • Formaty plików typu Delta LakeApache IcebergHudi
  • HDFS
  • Scala

📈 Dodatkowe atuty:

  • Doświadczenie z koncepcjami: Data Lakehouse, Data Quality, Data Lineage, Data Governance
  • Praca z danymi strumieniowymi / w czasie rzeczywistym
  • Znajomość modelowania danych: Star SchemaKimballData VaultCommon Data Model
  • Obszary: Master Data Management

Istniejemy od 2017 roku i od początku zajmujemy się rozwojem rozwiązań IT. Tworzymy systemy CRM i Campaign Management, specjalizujemy się w analityce biznesowej, Business Process Mining oraz Business Intelligence. Działamy w dwóch obszarach: realizacja własnych produktów oraz współpraca z klientami w oparciu o outsourcing.

 Crestt to firma, która wyznaje takie wartości jak partnerstwo, współpraca, rzetelność. Praca w Crestt to przede wszystkim teamwork – jesteśmy zespołem specjalistów, którzy dbają o rodzinną atmosferę i wiedzą jak współpraca jest ważnym elementem zawodowej rzeczywistości. Wspólnie podejmujemy decyzje, każdy w Crestt jest tak samo ważny. Kochamy zwierzęta! Są one częścią naszych zespołów, zawsze chętnie powitamy również Twojego pupila! 

Jakie benefity oferujemy?

  • Płaska struktura organizacyjna
  • Nieformalna atmosfera
  • Możliwość dostosowania projektów do kompetencji pracownika
  • Stałe wsparcie psychologa
  • Liczne webinary
  • Prywatna opieka medyczna „Medicover”
  • Multisport
  • Spotkania integracyjne
  • Atrakcyjny program poleceń
  • Szkolenia
  • Elastyczny czas pracy
  • Świętujemy z Tobą każdą ważną okazję!