Analista de Dados Senior

Manaus Hybrid

Sobre nós
Desde 2001, o INDT é um instituto de tecnologia que inspira inovação e respira tecnologia! Desenvolver está no nosso DNA e oferecemos um ambiente colaborativo com muitos desafios para o aprendizado e crescimento.

Surgimos em Manaus (AM) através da Nokia, e hoje atuamos em todo o Brasil com o objetivo de levar nossos serviços e nossa cultura para todas as regiões. Atualmente, possuímos mais de 200 colaboradores atuando ativamente.

Aqui você tem autonomia e protagonismo para propor e desenvolver projetos inovadores. #VEMSERINDT

Sobre a vaga
Atuar como Analista de Dados Sênior, responsável por estruturar e evoluir o ecossistema de dados em projetos: modelagem, ingestão, qualidade, governança e análises para suporte ao desenvolvimento de modelos de IA.

Nesta posição, você será protagonista na transformação de dados em informação acionável, atuando de ponta a ponta no ciclo de vida do dado: definição de métricas e fontes, padronização, preparo, validação, publicação e consumo em camadas analíticas. Esperamos capacidade de trabalhar com autonomia, priorizando demandas com base em impacto, e colaborando com times multidisciplinares para garantir consistência, confiabilidade e rapidez na tomada de decisão. Você também contribuirá com boas práticas de documentação, governança e melhoria contínua, elevando a maturidade do ecossistema de dados.

Responsabilidades:

  • Definir o modelo de dados (conceitual/lógico/físico).
  • Desenhar e implementar pipelines de ingestão e tratamento de dados a partir de diferentes fontes de dados.
  • Trabalhar com dados de alta frequência e séries temporais: padronização de timestamps, sincronização, agregações e janelas.
  • Estabelecer regras de qualidade (validações, reconciliação, deduplicação, tratamento de missing/outliers) e monitoramento para evitar Garbage In / Garbage Out.
    Construir camadas analíticas e indicadores para dashboards e para suportar alertas de processo e auto ajustes.
  • Conduzir análise exploratória e estatística para correlação entre dados para reconhecimento de padrões.
  • Definir métricas de sucesso e baseline, e desenhar análises de impacto (antes/depois, A/B quando aplicável).
  • Documentar dicionário de dados, linhagem, premissas e regras de negócio; apoiar o time com boas práticas de governança.
  • Atuar de forma próxima à Eng. de Processo/Eng. Fabril, Ciência de Dados/IA e Engenharia de Software, traduzindo necessidades de negócio em requisitos de dados.
  • Apoiar revisões de arquitetura de dados (escalabilidade, performance, custo) e recomendação de tecnologias (ETL/ELT, cache, mensageria, observabilidade).
Requirements

Requisitos - obrigatórios:

  • Formação superior em Ciência da Computação,Sistemas de Informação, Engenharia de Software / Computação, Análise e Desenvolvimento de Sistemas (tecnólogo), Banco de Dados, Ciência de Dados, ou áreas correlatas.
  • Experiência sólida com SQL (consulta, modelagem, performance e otimização).
  • Experiência com Python ou R para manipulação de dados.
  • Conhecimento de bibliotecas e frameworks para manipulação, transformação e processamento de dados.
  • Modelagem de dados analíticos (dimensional/estrela) e conceitos de data warehouse/lakehouse.
  • Construção de pipelines ETL/ELT e orquestração (ex.: Airflow, Prefect, Dagster ou equivalente).
  • Boas práticas de qualidade de dados, testes (ex.: Great Expectations ou equivalente) e governança (catálogo, dicionário, linhagem).
  • Conhecimento de bancos relacionais (PostgreSQL, SQL Server, Oracle) e fundamentos de NoSQL.
  • Conhecimento de integração via APIs (REST) e tratamento de dados semi-estruturados (JSON).
  • Familiaridade com mensageria/streaming e processamento assíncrono (ex.: Kafka, RabbitMQ).
  • Conhecimento em cloud (AWS, Azure ou GCP), incluindo serviços e ferramentas de dados em ambientes de datalake/lakehouse (armazenamento, catalogação, consulta e processamento), e uso de containers (Docker) quando aplicável.
  • Experiência ou familiaridade com ferramentas de análise de dados em cloud e datalakes (ex.: Athena/Glue/Redshift, BigQuery, Synapse, Databricks, Snowflake ou equivalentes), incluindo leitura/escrita em formatos colunares (Parquet/Delta) e boas práticas de particionamento.

Requisitos técnicos - desejáveis:

  • Mestrado em área correlata (Ciência de Dados, Estatística, Computação, Engenharias ou áreas afins).
  • Experiência com séries temporais industriais/IoT e protocolos (OPC-UA, MQTT) ou integração com sistemas de automação.
  • Experiência com dbt e práticas de Analytics Engineering.
  • Experiência com processamento distribuído (Spark) e/ou plataformas (Databricks).
  • Conhecimento em estatística aplicada, controle estatístico de processo (SPC) e análise de causas (RCA) em manufatura.
  • Noções de ML/feature engineering e colaboração com times de Ciência de Dados/MLOps.
  • Experiência com observabilidade em pipelines (logs, métricas, tracing) e definição de SLAs/SLOs de dados.

Idioma:

Inglês avançado (escrever bem, falar bem e compreender com segurança contextos de negócios e acadêmico, incluindo reuniões, documentação e apresentações).

Soft skills esperadas:

  • Boa comunicação verbal e escrita, com capacidade de explicar análises para público técnico e não técnico.
  • Autonomia para tomada de decisões técnicas e gestão de prioridades.
  • Atuação em ambiente ágil (Scrum/Kanban) e colaboração diária com times multidisciplinares.
  • Proatividade para levantar riscos, propor melhorias e conduzir alinhamentos com stakeholders.
  • Senso de ownership e foco em entrega de valor para o processo produtivo.