Se você busca estar em um time que combina alta performance, espírito inovador e cultura de parceria, essa vaga foi feita para você! 💙
Requirements
🎯 Principais responsabilidades:
Conduzir o desenho, evolução e padronização da arquitetura de dados (Lakehouse) em um ambiente corporativo crítico, incluindo expansão para arquitetura híbrida/multi-cloud (Azure + GCP), garantindo escalabilidade, resiliência e alta disponibilidade.
Garantir a aderência aos padrões de dados (camadas STG/RAW/TRUSTED/REFINED, Delta Lake, regras de negócio), governança (catálogo/linhagem, qualidade) e segurança (identidades, acessos, segregação e proteção de dados).
Atuar como referência técnica na sustentação do ecossistema de dados (Databricks, LakeFlow Pipelines/Connect, Jobs/Orquestração, integrações batch/streaming, CDC/replicação), apoiando troubleshooting, performance, custo e estabilidade ponta a ponta.
Apoiar squads e áreas de negócio na definição de requisitos, modelagem (conceitual/lógica/física), desenho de data products e melhores práticas de consumo (BI, endpoints/APIs, integrações corporativas, Model Serving/Vector Search quando aplicável).
Ser responsável por decisões de arquitetura (ADRs), documentação, governança técnica, práticas de CI/CD (Git), observabilidade/monitoramento e alinhamento contínuo com times de Infra, Segurança, Redes e Cloud.
🧩 O que esperamos de você:
Formação superior completa ou cursando em Ciência da Computação, Engenharia, Sistemas de Informação, Análise de Sistemas ou áreas correlatas;
Experiência sólida como Arquiteto(a) de Dados / Arquiteto(a) de Soluções de Dados sustentando ambientes corporativos em produção e integrações com múltiplas fontes;
Domínio de Databricks/Spark, Delta Lake, SQL e Python, com prática em desenho de pipelines (batch/streaming), otimização de performance, particionamento, governança e confiabilidade.
Vivência em arquitetura de dados em nuvem, com foco em Azure (ex.: ADLS, redes/Private Link, IAM/Entra ID, Secrets/Key Vault, monitoração) e integração com GCP (ex.: BigQuery/GCS e conectividade/segurança entre clouds); Boa comunicação, empatia, organização e capacidade de lidar com diferentes públicos; Perfil hands-on, proativo, colaborativo e orientado a resultados;
✨ Diferenciais:
Conhecimento em ferramentas Informatica, MuleSoft/APIs, ITSM (ServiceNow/Jira), Unity Catalog, MLflow, observabilidade de dados e práticas de Data Quality/DataOps;
Certificações: Databricks (Data Engineer/Architect), Microsoft Azure (Solutions Architect), Google Cloud (Professional Data Engineer/Cloud Architect);
Atuação em empresas em crescimento, ambientes ágeis ou times enxutos.