Nosso cliente atua em uma etapa da compra online conhecida como "checkout" - trata-se do momento em que o consumidor precisa finalizar a compra, preenchendo o cadastro e informações de pagamento.
Em integração com os serviços de lojistas, nosso cliente oferece um sistema que preenche automaticamente os dados do comprador na hora de fechar compras. Para fazer isso, a plataforma da startup funciona com cadastros únicos para diferentes lojas: depois que o cliente faz uma primeira compra em uma loja, as informações ficam armazenadas para serem usadas em outras lojas cadastradas no sistema do nosso cliente.
O modelo de negócios da empresa funciona com cobranças nas transações.
Responsabilidades
• Projetar, implementar e manter pipelines de ingestão, processamento e armazenamento de dados.
• Integrar dados de diferentes fontes (APIs, bancos de dados, arquivos, etc.).
• Garantir a qualidade, segurança e governança dos dados.
• Fornecer e analisar dados.
• Monitorar performance e escalabilidade das soluções de dados.
• Participar da definição de arquitetura de dados e boas práticas.
Requisitos obrigatórios
• Experiência com ferramentas de ETL/ELT e orquestração (ex: Apache Airflow, dbt, etc.).
• Domínio de SQL e conhecimentos em bancos de dados relacionais e não relacionais.
• Linguagens de programação como Python, Scala ou C#(preferencialmente Python).
• Experiência com serviços de nuvem (AWS, GCP ou Azure).
• Conhecimento em modelagem de dados (dimensional, normalização, etc.).
• Experiência com versionamento de código (Git).
Diferenciais
• Experiência com plataformas de dados modernas (Databricks, Snowflake, BigQuery, Redshift).