Profissional com sólida base técnica em engenharia de dados, capaz de atuar de forma autônoma na construção e manutenção de pipelines e arquiteturas escaláveis. Desejável skill de comunicação para colaborar com times técnicos e de negócio, além de adaptabilidade para trabalhar em ambientes dinâmicos e visão sistêmica para entender o impacto das soluções no ecossistema de dados.
· Desenvolvimento e manutenção de pipelines de dados robustos para ingestão, processamento e transformação (ETL/ELT) com Python, SQL e Apache Airflow;
· Contribuição para a evolução da arquitetura de dados em ambientes Databricks e AWS, com foco em escalabilidade e performance;
· Aplicação de boas práticas de engenharia de dados, incluindo padrões de nomenclatura, estruturação de catálogos de dados e definição de camadas semânticas;
· Apoio na integração de dados entre sistemas, além da manutenção de data lakes e data warehouses produtivos;
· Participação na implementação de processos de CI/CD e práticas de monitoramento para pipelines de dados;
· Colaboração com áreas de negócio para compreender necessidades e traduzi-las em soluções técnicas escaláveis e governadas;
· Criação e manutenção de documentação técnica clara e estruturada para apoiar a operação e evolução das soluções de dados.
Superior completo em áreas de TI.
Programação (Python e SQL), Arquitetura de Dados (data lakehouse ou data warehouse), Big Data (Databricks, Spark), Cloud Computing (AWS ou Azure), Ferramentas de Orquestração (Apache Airflow), Integração de Dados (ETL/ELT), Governança e Monitoramento de pipelines, Documentação Técnica.