Contratante: Avantti Tecnologia
Senioridade: Especialista
Modelo de Trabalho: Remoto
Período: 3 meses (podendo ser prorrogado)
Sobre a Oportunidade
Estamos buscando um Arquiteto de Dados Especialista com experiência profunda em ambientes híbridos e multi-cloud (AWS, GCP e Azure). O profissional será responsável por projetar, evoluir e garantir a interoperabilidade da arquitetura corporativa de dados em larga escala, atuando de forma hands-on com pipelines, integrações, segurança e governança.
Requisitos Técnicos (Obrigatórios)
Integração & Arquitetura
Sólida experiência com integração híbrida: on-premises, AWS, GCP e Azure
Experiência prática com conectividade corporativa
Experiência em desenho de arquiteturas multi-cloud com padronização e interoperabilidade
Experiência com ingestion patterns: CDC, streaming, batch, API ingestion, file ingestion
Pipelines de Dados Multi-cloud
AWS: Kinesis, Glue, S3, Lake Formation, Redshift, EMR
GCP: BigQuery, Dataflow/Beam, Pub/Sub, Composer
Azure: Data Factory, Synapse, ADLS, Databricks, Event Hub
Modelagem & Processamento
Modelagem conceitual, lógica, física, canonical models e padrões corporativos
Big Data e processamento distribuído: Spark, EMR, Databricks
Governança, metadados, qualidade, catálogo e lineage
Segurança e IAM
Orquestração & Mensageria
Orquestração: Step Functions, Airflow, MuleSoft, Databricks Jobs
Mensageria: Kafka, Pub/Sub, Event Hub, Kinesis
Analytics & BI
Experiência com DW/BI
Power BI (necessário)
Looker (desejável), Tableau (desejável), QuickSight (desejável)
DevOps & Segurança
CI/CD, Infra as Code (Terraform preferencial) e GitOps
Segurança em cloud
Perfil
Perfil hands-on, com atuação direta em desenvolvimento de extração e ingestão de dados
Desejáveis
Conhecimento em People Analytics
Responsabilidades Principais
Projetar e evoluir a arquitetura corporativa de dados em ambiente híbrido e multi-cloud (on-premises ↔ AWS ↔ Azure ↔ GCP)
Desenhar integrações entre sistemas legados e camadas de ingestão e processamento em cloud
Definir padrões de integração entre data centers locais, sistemas on-premises e soluções cloud
Garantir resiliência, segurança, performance e otimização de custos de toda a arquitetura
Estruturar pipelines distribuídos em larga escala entre AWS, Azure e GCP
Definir e manter lifecycle de dados nas camadas Bronze, Silver e Gold
Implementar políticas robustas de Governança de Dados, Data Quality e Catálogo (Lake Formation, Glue Catalog, DataHub, Collibra, ou equivalente)
Atuar com áreas de Produto, Cliente e Fornecedor na definição de modelos corporativos
Integrar ambientes de consumo analítico e ciência de dados entre clouds
Construir arquiteturas para consumo real time e batch
Orientar squads de engenharia, analytics e sistemas na adoção de padrões unificados
Conduzir POCs comparativas entre AWS, GCP e Azure
Apoiar no desenvolvimento das extrações e ingestão de dados