Sobre nós
Desde 2001, o INDT é um instituto de tecnologia que inspira inovação e respira tecnologia! Desenvolver está no nosso DNA e oferecemos um ambiente colaborativo com muitos desafios para o aprendizado e crescimento.
Surgimos em Manaus (AM) através da Nokia, e hoje atuamos em todo o Brasil com o objetivo de levar nossos serviços e nossa cultura para todas as regiões. Atualmente, possuímos mais de 200 colaboradores atuando ativamente.
Aqui você tem autonomia e protagonismo para propor e desenvolver projetos inovadores. #VEMSERINDT
Sobre a vaga
Atuar como Analista de Dados Sênior, responsável por estruturar e evoluir o ecossistema de dados em projetos: modelagem, ingestão, qualidade, governança e análises para suporte ao desenvolvimento de modelos de IA.
Nesta posição, você será protagonista na transformação de dados em informação acionável, atuando de ponta a ponta no ciclo de vida do dado: definição de métricas e fontes, padronização, preparo, validação, publicação e consumo em camadas analíticas. Esperamos capacidade de trabalhar com autonomia, priorizando demandas com base em impacto, e colaborando com times multidisciplinares para garantir consistência, confiabilidade e rapidez na tomada de decisão. Você também contribuirá com boas práticas de documentação, governança e melhoria contínua, elevando a maturidade do ecossistema de dados.
Responsabilidades:
- Definir o modelo de dados (conceitual/lógico/físico).
- Desenhar e implementar pipelines de ingestão e tratamento de dados a partir de diferentes fontes de dados.
- Trabalhar com dados de alta frequência e séries temporais: padronização de timestamps, sincronização, agregações e janelas.
- Estabelecer regras de qualidade (validações, reconciliação, deduplicação, tratamento de missing/outliers) e monitoramento para evitar Garbage In / Garbage Out.
Construir camadas analíticas e indicadores para dashboards e para suportar alertas de processo e auto ajustes.
- Conduzir análise exploratória e estatística para correlação entre dados para reconhecimento de padrões.
- Definir métricas de sucesso e baseline, e desenhar análises de impacto (antes/depois, A/B quando aplicável).
- Documentar dicionário de dados, linhagem, premissas e regras de negócio; apoiar o time com boas práticas de governança.
- Atuar de forma próxima à Eng. de Processo/Eng. Fabril, Ciência de Dados/IA e Engenharia de Software, traduzindo necessidades de negócio em requisitos de dados.
- Apoiar revisões de arquitetura de dados (escalabilidade, performance, custo) e recomendação de tecnologias (ETL/ELT, cache, mensageria, observabilidade).
Requisitos - obrigatórios:
- Formação superior em Ciência da Computação,Sistemas de Informação, Engenharia de Software / Computação, Análise e Desenvolvimento de Sistemas (tecnólogo), Banco de Dados, Ciência de Dados, ou áreas correlatas.
- Experiência sólida com SQL (consulta, modelagem, performance e otimização).
- Experiência com Python ou R para manipulação de dados.
- Conhecimento de bibliotecas e frameworks para manipulação, transformação e processamento de dados.
- Modelagem de dados analíticos (dimensional/estrela) e conceitos de data warehouse/lakehouse.
- Construção de pipelines ETL/ELT e orquestração (ex.: Airflow, Prefect, Dagster ou equivalente).
- Boas práticas de qualidade de dados, testes (ex.: Great Expectations ou equivalente) e governança (catálogo, dicionário, linhagem).
- Conhecimento de bancos relacionais (PostgreSQL, SQL Server, Oracle) e fundamentos de NoSQL.
- Conhecimento de integração via APIs (REST) e tratamento de dados semi-estruturados (JSON).
- Familiaridade com mensageria/streaming e processamento assíncrono (ex.: Kafka, RabbitMQ).
- Conhecimento em cloud (AWS, Azure ou GCP), incluindo serviços e ferramentas de dados em ambientes de datalake/lakehouse (armazenamento, catalogação, consulta e processamento), e uso de containers (Docker) quando aplicável.
- Experiência ou familiaridade com ferramentas de análise de dados em cloud e datalakes (ex.: Athena/Glue/Redshift, BigQuery, Synapse, Databricks, Snowflake ou equivalentes), incluindo leitura/escrita em formatos colunares (Parquet/Delta) e boas práticas de particionamento.
Requisitos técnicos - desejáveis:
- Mestrado em área correlata (Ciência de Dados, Estatística, Computação, Engenharias ou áreas afins).
- Experiência com séries temporais industriais/IoT e protocolos (OPC-UA, MQTT) ou integração com sistemas de automação.
- Experiência com dbt e práticas de Analytics Engineering.
- Experiência com processamento distribuído (Spark) e/ou plataformas (Databricks).
- Conhecimento em estatística aplicada, controle estatístico de processo (SPC) e análise de causas (RCA) em manufatura.
- Noções de ML/feature engineering e colaboração com times de Ciência de Dados/MLOps.
- Experiência com observabilidade em pipelines (logs, métricas, tracing) e definição de SLAs/SLOs de dados.
Idioma:
Inglês avançado (escrever bem, falar bem e compreender com segurança contextos de negócios e acadêmico, incluindo reuniões, documentação e apresentações).
Soft skills esperadas:
- Boa comunicação verbal e escrita, com capacidade de explicar análises para público técnico e não técnico.
- Autonomia para tomada de decisões técnicas e gestão de prioridades.
- Atuação em ambiente ágil (Scrum/Kanban) e colaboração diária com times multidisciplinares.
- Proatividade para levantar riscos, propor melhorias e conduzir alinhamentos com stakeholders.
- Senso de ownership e foco em entrega de valor para o processo produtivo.