A [Contmatic](https://www.contmatic.com.br/) fomenta a entrega do extraordinário com foco no cliente e no resultado. É formada pela valorização do respeito e do trabalho em equipe, usando sempre a mentalidade do crescimento em tudo o que fazemos, dando autonomia com responsabilidade para que todos possam se desenvolver em um ambiente seguro e transparente
Estamos em busca de uma pessoa Engenheira de Dados Júnior com base técnica sólida e vivência prática em dados, para atuar na construção, sustentação e evolução da nossa arquitetura de dados.
Essa é uma oportunidade ideal para quem quer consolidar sua carreira em engenharia de dados, atuando em problemas reais, com autonomia crescente e impacto direto no negócio.
* Desenvolver e manter pipelines de dados ponta a ponta (ingestão, transformação e disponibilização)
* Atuar na sustentação e evolução da arquitetura de dados
* Garantir qualidade, confiabilidade e rastreabilidade dos dados
* Monitorar, investigar e corrigir falhas em pipelines produtivos
* Documentar fluxos, tabelas e decisões técnicas
* Colaborar com áreas de produto e analytics para entender necessidades de dados
* Propor melhorias contínuas na stack de dados
Requisitos técnicos
-------------------
* SQL avançado (queries complexas e otimização de performance)
* Python para manipulação e automação de dados
* Experiência com pipelines de dados (ETL/ELT)
* Orquestração de workflows (Airflow ou similar)
* Ingestão de dados (Airbyte ou similares)
* Transformação de dados (dbt, DLT ou equivalente)
* Experiência com bancos analíticos (BigQuery, ClickHouse ou similares)
* Conhecimento em arquitetura de dados (Data Lake, Data Warehouse, camadas)
* Noções de storage (S3, MinIO ou similares)
* Versionamento com Git
Diferenciais
------------
* Experiência com ferramentas de BI (ex: Metabase)
* Conhecimento em monitoramento de pipelines
* Experiência com grandes volumes de dados
* Boa prática de documentação
O que esperamos dessa pessoa
----------------------------
* Evoluir a arquitetura de dados da empresa
* Garantir qualidade e confiabilidade dos dados
* Entregar pipelines estáveis e escaláveis
* Apoiar áreas de negócio com dados consistentes