Arquiteto de Dados

PJ, São Paulo Hybrid

Se você busca estar em um time que combina alta performance, espírito inovador e cultura de parceria, essa vaga foi feita para você! 💙

Requirements

🎯 Principais responsabilidades:

  • Conduzir o desenho, evolução e padronização da arquitetura de dados (Lakehouse) em um ambiente corporativo crítico, incluindo expansão para arquitetura híbrida/multi-cloud (Azure + GCP), garantindo escalabilidade, resiliência e alta disponibilidade. 

  • Garantir a aderência aos padrões de dados (camadas STG/RAW/TRUSTED/REFINED, Delta Lake, regras de negócio), governança (catálogo/linhagem, qualidade) e segurança (identidades, acessos, segregação e proteção de dados). 

  • Atuar como referência técnica na sustentação do ecossistema de dados (Databricks, LakeFlow Pipelines/Connect, Jobs/Orquestração, integrações batch/streaming, CDC/replicação), apoiando troubleshooting, performance, custo e estabilidade ponta a ponta. 

  • Apoiar squads e áreas de negócio na definição de requisitos, modelagem (conceitual/lógica/física), desenho de data products e melhores práticas de consumo (BI, endpoints/APIs, integrações corporativas, Model Serving/Vector Search quando aplicável).

  • Ser responsável por decisões de arquitetura (ADRs), documentação, governança técnica, práticas de CI/CD (Git), observabilidade/monitoramento e alinhamento contínuo com times de Infra, Segurança, Redes e Cloud. 
     

🧩 O que esperamos de você:

  • Formação superior completa ou cursando em Ciência da Computação, Engenharia, Sistemas de Informação, Análise de Sistemas ou áreas correlatas; 

  • Experiência sólida como Arquiteto(a) de Dados / Arquiteto(a) de Soluções de Dados sustentando ambientes corporativos em produção e integrações com múltiplas fontes; 

  • Domínio de Databricks/Spark, Delta Lake, SQL e Python, com prática em desenho de pipelines (batch/streaming), otimização de performance, particionamento, governança e confiabilidade.

  • Vivência em arquitetura de dados em nuvem, com foco em Azure (ex.: ADLS, redes/Private Link, IAM/Entra ID, Secrets/Key Vault, monitoração) e integração com GCP (ex.: BigQuery/GCS e conectividade/segurança entre clouds); 
    Boa comunicação, empatia, organização e capacidade de lidar com diferentes públicos; 
    Perfil hands-on, proativo, colaborativo e orientado a resultados; 
     

✨ Diferenciais:

  • Conhecimento em ferramentas Informatica, MuleSoft/APIs, ITSM (ServiceNow/Jira), Unity Catalog, MLflow, observabilidade de dados e práticas de Data Quality/DataOps; 

  • Certificações: Databricks (Data Engineer/Architect), Microsoft Azure (Solutions Architect), Google Cloud (Professional Data Engineer/Cloud Architect); 

  • Atuação em empresas em crescimento, ambientes ágeis ou times enxutos.