Responsabilidades
Desenvolver e manter a camada de transformação de dados usando DBT como ferramenta principal
Projetar e implementar modelos de dados no data warehouse seguindo melhores práticas
Criar pipelines de transformação escaláveis e reutilizáveis em DBT
Implementar e garantir aderência ao GitFlow nos processos de desenvolvimento DBT
Documentar extensivamente modelos, transformações e lógicas de negócio
Dar suporte técnico ao time de análise de dados, facilitando a transição para práticas modernas de data engineering
Estabelecer padrões de qualidade de dados e testes automatizados no DBT
Otimizar performance de queries e transformações no warehouse
Capacitar analistas de dados em práticas de versionamento e DBT
Criar e manter documentação técnica detalhada de todos os processos
Requisitos Obrigatórios
Formação em Engenharia, Ciências da Computação ou áreas correlatas
Experiência sólida com DBT (Data Build Tool):
Modelagem incremental e materialização
Macros e testes customizados
Documentação e lineage de dados
Orquestração de jobs
Domínio de Git e GitFlow:
Branching strategies
Pull requests e code review
Resolução de conflitos
CI/CD pipelines
Experiência com SQL avançado e otimização de queries
Conhecimento em Python para automação e scripts de dados
Experiência com Data Warehouses modernos (BigQuery, Snowflake, Redshift ou Databricks)
Capacidade de trabalhar com conceitos de modelagem dimensional
Habilidade para criar documentação técnica clara e completa
Diferenciais
Experiência em migração de processos ETL legados para DBT
Conhecimento em ferramentas de orquestração (Airflow, Prefect)
Familiaridade com DataOps e práticas de CI/CD para dados
Experiência em treinar e capacitar equipes técnicas
Conhecimento em ferramentas de catálogo de dados
Certificações em plataformas cloud ou DBT
Procuramos um(a) Analytics Engineer para liderar a evolução da nossa camada de transformação de dados. Este profissional será peça fundamental na construção e manutenção de pipelines de dados confiáveis usando DBT, atuando como ponte entre a engenharia de dados e o time de análise, garantindo que os dados estejam prontos e otimizados para consumo analítico.