• Design, build, and optimize scalable data pipelines with SQL, PySpark, Python.
  • Use Apache Airflow, AWS Glue, Kafka, Redshift for data processing and orchestration.
  • Manage AWS infrastructure (Lambda, S3, CloudWatch, Kinesis) for cloud-based, serverless workflows.
  • Automate infrastructure with Terraform and Ansible.
  • Monitor and maintain ETL pipelines for reliability and performance.
  • Implement CI/CD for efficient testing, deployment, and versioning.

  • 165 - 195 zł/h Net+vat, B2B
  • Benefits: Multisport card, life insurance, private medical care
  • Flexbile hybrid work from the modern office located in Warsaw - Rando ONZ
  • Long-term cooperation
  • Possibility to develop modern AI Tools 

  • Minimum 5 years in data engineering with demonstrated expertise in designing, building, and optimizing data workflows.
  • Core Languages: Proficient in SQL, PySpark, and Python.
  • Frameworks and Tools: Skilled in using Apache Airflow, AWS Glue, Kafka, Redshift, and Git.
  • Cloud & DevOps Skills: Advanced experience with AWS services (Lambda, S3, CloudWatch, SNS/SQS, Kinesis).
  • Infrastructure Automation Tools: Proficient with Terraform and Ansible for infrastructure management.
  • CI/CD Knowledge: Strong background in continuous integration and delivery practices.

Jesteśmy Devire – firmą rekrutacyjną, której celem jest łączenie świetnych ludzi ze świetnymi pracodawcami.

Niezależnie czy rozglądasz się za nową pracą na stałe czy projektem w formie współpracy B2B – możesz polegać na naszym wsparciu na każdym kroku.

Współpracujemy z pracodawcami z terenu całej Polski i realizujemy rekrutacje we wszystkich kluczowych obszarach technologicznych.