Remoto, se necessário comparecer no cliente (profissional preferencial de SP)
Imediato
Indeterminado
Experiência sólida com Databricks (Delta Lake, Databricks SQL, MLflow).
Forte atuação em PySpark e SQL para pipelines de dados em larga escala.
Vivência em projetos de Big Data, com ingestão, transformação e modelagem de dados.
Experiência em Data Lakes e arquitetura de microsserviços aplicados a dados.
Conhecimento em Cloud (Azure, AWS ou GCP).
Boas práticas de governança, qualidade e segurança de dados.
✨ Diferenciais:
Experiência em CI/CD e DataOps.
Conhecimento em mensageria (Kafka, RabbitMQ).
Noções de Machine Learning pipelines no Databricks.
Exposição a ferramentas de orquestração (Airflow, Databricks Jobs).