Engenheiro de Dados Senior

São Paulo Hybrid

Sobre Nós

Estamos em constante evolução -  fortalecendo nossa estrutura, ampliando nossas capacidades e avançando para os próximos níveis do entretenimento digital no Brasil. Seguimos pioneiros, com ambição, tecnologia e foco em escala. Operamos em tempo real, com milhões de decisões acontecendo a cada segundo, e buscamos pessoas que queiram crescer junto com essa jornada.

Aqui você encontrará um ambiente dinâmico e orientado a resultados, onde protagonismo, autonomia e aprendizado acelerado fazem parte do dia a dia. Valorizamos quem usa tecnologia a seu favor, encara desafios e quer construir algo grande.

Se você quer fazer parte de uma empresa em evolução contínua, que está elevando o jogo e abrindo novas oportunidades, a Apostou pode ser o seu próximo passo. 🚀

👉 PRINCIPAIS RESPONSABILIDADES

  • Projetar e construir do zero a arquitetura de dados da plataforma — data warehouse, data lake ou arquitetura medallion — definindo as camadas raw, staged e curated que sustentarão toda a inteligência do negócio.
  • Desenvolver, implantar e manter pipelines de ingestão de dados (ETL/ELT) que capturem eventos de todas as fontes críticas da plataforma: apostas, pagamentos, sessões de jogador, CRM, financeiro e risco, com baixa latência e alta confiabilidade.
  • Modelar o data warehouse e definir os schemas, tabelas de fatos, dimensões e mart areas de negócio — CRM, produto, financeiro, risco — garantindo consistência, rastreabilidade e performance de consulta.
  • Implementar e operar a stack de transformação de dados com dbt, garantindo modelos versionados, testados, documentados e evoluídos de forma colaborativa com os times consumidores.
  • Orquestrar todos os pipelines e workflows de dados com Apache Airflow (ou equivalente), garantindo agendamento confiável, reprocessamento resiliente e visibilidade total de dependências.
  • Garantir a qualidade de dados ponta a ponta — implementando data contracts, testes automáticos de schema, alertas de anomalia e monitoramento de freshness para que nenhum consumidor receba dado incorreto.
  • Construir e manter a camada de streaming de dados para casos de uso em tempo real — detecção de fraude, jogo responsável, alertas de CRM — integrando Kafka ou equivalente ao ecossistema de dados.
  • Definir e implementar a estratégia de governância de dados da empresa: catálogo de dados, dicionário de termos de negócio, controle de acesso por dado sensível e conformidade com LGPD.
  • Integrar as ferramentas de BI — Looker, Power BI, Metabase — ao data warehouse, garantindo que analistas, PMs e a liderança tenham acesso self-service a dados confiáveis e atualizados.
  • Colaborar diretamente com os times de Produto, CRM, Financeiro, Risco e IA para entender necessidades analíticas, modelar os dados corretamente e garantir que a infraestrutura atenda a casos de uso reais com agilidade.
  • Definir e implantar as melhores práticas de engenharia de dados da empresa — versionamento de modelos, testes de qualidade, documentação, CI/CD para dados — construindo uma cultura data-driven desde a fundação.
  • Monitorar a saúde de toda a infraestrutura de dados — latência de pipelines, custo de cloud, volume de dados processados — e otimizar continuamente para eficiência operacional e de custo.
  • Apoiar o time de IA/ML fornecendo as features, pipelines de treinamento e feature stores necessários para modelos preditivos de churn, LTV, detecção de fraude e comportamento de jogador.
  • Garantir conformidade dos dados com a regulamentação de iGaming — auditabilidade de transações, isolamento de dados sensíveis, relatórios regulatórios — atuando junto a Compliance e Jurídico.
Requirements

👉 O que esperamos de você - Obrigatório

  • SQL avançado em data warehouses cloud (BigQuery, Redshift ou Snowflake) — modelagem dimensional, CTEs, window functions, otimização de queries
  • Python para engenharia de dados — pandas, PySpark, construção de pipelines ETL/ELT
    dbt (data build tool) — modelagem em camadas, testes de qualidade, documentação e versionamento de modelos
  • Apache Airflow ou orquestrador equivalente (Prefect, Dagster) em ambiente de produção
  • Cloud data platform: GCP (BigQuery, Dataflow, Pub/Sub) ou AWS (Redshift, Glue, Kinesis)
  • Kafka ou plataforma de streaming para pipelines em tempo real
  • Git e boas práticas de engenharia de software aplicadas a dados (CI/CD for data, testes, code review)
  • Mínimo 6 anos em engenharia de dados com experiência em construção de data warehouses ou pipelines de produção
  • Graduação em Ciência da Computação, Engenharia, Estatística, Sistemas de Informação ou áreas correlatas
  • Inglês avançado — documentação técnica, ferramentas e comunicação com fornecedores

Diferenciais que irão destacar sua candidatura:

  • Experiência em iGaming, fintechs ou plataformas de alto volume transacional e eventos comportamentais
  • Experiência construíndo arquitetura de dados do zero — greenfield data platform
    Conhecimento de arquitetura Medallion (Bronze/Silver/Gold) ou Data Lakehouse (Delta Lake, Apache Iceberg)
  • Feature store e colaboração com times de ML/IA para pipelines de treinamento e inferência
  • Governância de dados: catálogo (DataHub, Amundsen, Collibra), data contracts e LGPD aplicada a dados
  • Certificações: Google Professional Data Engineer, AWS Data Analytics Specialty ou dbt Analytics Engineer
  • Pós-graduação em Data Engineering, Data Science ou Engenharia de Software
Benefits
  • iFood Benefícios
  • Plano de Saúde
  • Assistência Odontológica
  • Suporte a Deslocamento
  • Day off de Aniversário

* Benefícios direcionados a contratos CLT

Se você busca desafios, aprendizado contínuo e quer se destacar pelo que entrega, venha crescer com a gente.

Estamos ansiosos para conhecer você! 🚀