
$0-$0 / yr
Salary
brazil
Region
ASAP
Start Date
Somos especialistas em transformação tecnológica, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 8,000 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1,000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.
Importante: se você reside na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequencia vigente.
Descrição da Vaga: Estamos em busca de uma pessoa para atuar como Engenheiro(a) de Dados em um projeto focado em integração de dados. As principais responsabilidades as seguintes tecnologias: * Databricks com PySpark * Processamento de dados em tempo quase real (Kafka) * Produtização de modelos de Machine Learning no Databricks (MlOps) * Esteiras de CI/CD (Github e Github Actions) * Experiência com Metodologias Ágeis O profissional deve ter conhecimentos e seguir as boas práticas de desenvolvimento, otimizar o uso dos dados, desenvolver aplicações e colaborar com equipes de negócios e técnicas para definir e revisar regras. Responsabilidades: * Garantir boas práticas de desenvolvimento: Assegurar que todas as práticas de desenvolvimento de dados sigam padrões de qualidade e eficiência. * Melhor uso dos dados: Otimizar a utilização dos dados disponíveis para maximizar seu valor. * Apoio nos refinamentos: Colaborar com as equipes para refinar as histórias e requisitos, garantindo clareza e viabilidade. * Apoio na construção de histórias: Ajudar na elaboração de histórias de usuário que sejam claras e bem definidas, facilitando o trabalho dos engenheiros de dados. * Apoio no desenho AS-IS e TO-BE: Participar na documentação dos processos atuais e futuros, identificando débitos técnicos e necessidades de melhorias. * Desenvolvimento de histórias refinadas: Implementar as histórias de usuário que já foram refinadas e aprovadas, garantindo a qualidade e eficiência do código. * Construção de produtos de dados: Desenvolver e manter produtos de dados em ambiente Big Data na Nuvem com Databricks, assegurando a escalabilidade e performance. * Colaboração com focais de dados e de negócio: Trabalhar em conjunto com os focais de dados e de negócio para garantir que as soluções desenvolvidas estejam alinhadas com as melhores práticas e necessidades do negócio. Qualificações Necessárias: Conhecimentos Técnicos: * Databricks com PySpark * Experiência com esteiras de CI/CD – Github/Github Actions * Processamento de Dados em NRT (Kafka) * Produtização de Modelos criados no Databricks (MlOps) * Experiência com Metodologias Ágeis * Ter conhecimento em Spark, Python e Lógica de Programação são extremamente importantes!!! Qualidades Comportamentais: * Proatividade (aumentar a capacidade de entrega do time) * Capacidade analítica (habilidade de analisar bases de dados) * Resolução de problemas (identificar e propor soluções) * Perfil consultor (ex: Trazer ideias e soluções das tarefas do projeto e não as esperar) * Visão 360º (ex: Entender o projeto como um todo, entendendo os impactos que uma solução pontual posso acarretar o projeto) * Comunicação assertiva (com clareza, confiança e respeito)
Nossos benefícios: