Responsabilidades e atribuições:
• Definir e evoluir a arquitetura de dados da plataforma, garantindo alta
disponibilidade e escalabilidade.
• Estruturar e otimizar modelagem de dados para processamento de alto volume
e baixa latência.
• Projetar soluções de ETL/ELT e streaming de dados (Kafka, Spark, Flink,
Debezium).
• Garantir governança, integridade, qualidade e segurança dos dados, seguindo
regulamentações como PCI DSS, LGPD e GDPR.
• Definir e implementar estratégias de particionamento, replicação e
caching para bancos de dados.
• Trabalhar com bancos relacionais (PostgreSQL, MySQL, Oracle) e não
relacionais (MongoDB, DynamoDB, Redis, Cassandra).
• Projetar arquitetura de data lakes e data warehouses na AWS (Redshift, S3,
Glue, Athena).
• Atuar na otimização de queries e tuning de banco de dados para
garantir performance e eficiência.
• Definir estratégias de monitoramento e observabilidade de dados com
ferramentas como Prometheus, Grafana e Elastic Stack.
• Trabalhar em conjunto com engenheiros de dados, desenvolvedores e
arquitetos de software para garantir a melhor estruturação dos dados.
• Apoiar times na implementação de pipelines de dados CI/CD e automação de
processos.
• Interagir com stakeholders internos e externos, garantindo alinhamento técnico
e estratégico para o uso de dados.
Requisitos obrigatórios:
Experiência sólida em arquitetura de dados e engenharia de dados;
Conhecimento avançado em bancos de dados relacionais e não relacionais;
Experiência com arquitetura de big data, data lakes e data warehouses;
Forte domínio em streaming de dados e processamento em tempo real (Kafka, Flink, Spark, Debezium);
Experiência com otimização de performance e tuning de bancos de dados;
Conhecimento em segurança de dados, criptografia e compliance (PCI DSS, LGPD, GDPR);
Fluência em inglês para comunicação com times internacionais;
Experiência no setor de meios de pagamento, especialmente no processamento de cartões.
Diferenciais:
Experiência no mercado americano de pagamentos. Conhecimento em soluções de analytics e machine learning;
Certificações em AWS Data Analytics, Google Cloud Data Engineer ou similares;
Experiência com DataOps e automação de governança de dados.
Habilidades e Competências Corporativas necessárias: Pensamento analítico, liderança técnica, colaboração & trabalho em equipe, autonomia, proatividade, resiliência e adaptabilidade.