
B2B • Data Analytics • Consulting
Criador de valor na era dos Dados e Digital A Keyrus ajuda empresas a aproveitar o paradigma dos Dados e Digital para aprimorar seu desempenho, auxiliá-las em sua transformação e gerar novos motores para crescimento e competitividade.
1001 - 5000 funcionários
Fundada em 1996
🤝 B2B
Setembro 4
🗣️🇧🇷🇵🇹 Português obrigatório

B2B • Data Analytics • Consulting
Criador de valor na era dos Dados e Digital A Keyrus ajuda empresas a aproveitar o paradigma dos Dados e Digital para aprimorar seu desempenho, auxiliá-las em sua transformação e gerar novos motores para crescimento e competitividade.
1001 - 5000 funcionários
Fundada em 1996
🤝 B2B
• Desenvolver e manter pipelines de dados eficientes, escaláveis e seguros na nuvem Azure (ADF, Databricks). • Projetar e implementar processos de ingestão, transformação e armazenamento de dados (ETL/ELT) utilizando ferramentas como Airflow para orquestração. • Trabalhar com grandes volumes de dados estruturados e não estruturados, garantindo qualidade, integridade e disponibilidade. • Criar e otimizar modelos de dados em ambientes de Data Lake e Data Warehouse. • Colaborar com equipes de Data Science, Analytics e Produtos para entregar dados de alto valor para o negócio. • Monitorar e garantir a performance das soluções em produção, atuando na identificação e resolução de incidentes. • Aplicar boas práticas de versionamento de código (GitHub), segurança e governança de dados. • Integrar e processar fluxos de dados em tempo real utilizando Kafka.
• Experiência sólida com serviços Azure (ADF, Databricks). • Domínio em PySpark e sólida experiência com SQL e Python. • Conhecimentos em Spark para processamento distribuído de dados. • Experiência com orquestração de pipelines em Airflow. • Experiência com versionamento de código em Git/GitHub. • Familiaridade com boas práticas de modelagem de dados, arquitetura de pipelines e documentação. • Conhecimentos em soluções de mensageria/streaming, como Kafka. • Boa comunicação, postura proativa e trabalho colaborativo com times multidisciplinares.
Candidatar-seSetembro 2
Construir e manter pipelines de dados para ingestão, transformação e sincronização. Trabalhar com ferramentas de ETL/ELT, arquiteturas em nuvem (Azure/AWS) e linguagens Python/Scala/Java.
🗣️🇧🇷🇵🇹 Português obrigatório
Setembro 2
Engenheiro(a) de Dados na GFT construindo pipelines ETL/ELT, integrando sistemas heterogêneos e garantindo arquitetura de dados em nuvem e conformidade.
🗣️🇧🇷🇵🇹 Português obrigatório
Agosto 30
Engenheiro de Dados Sênior projetando pipelines com AWS Glue e PySpark e infraestrutura com Terraform na GFT.
🗣️🇧🇷🇵🇹 Português obrigatório
Agosto 30
Engenheiro(a) de Dados Sênior construindo e automatizando pipelines de dados com AWS Glue e Terraform na GFT. Garantindo qualidade de dados e práticas de CI/CD.
🗣️🇧🇷🇵🇹 Português obrigatório
Agosto 27
Engenheiro de Dados Sênior construindo pipelines de dados escaláveis e plataformas de ML para uma fintech brasileira. Transformando insights de negócio em soluções de dados em produção.
🗣️🇧🇷🇵🇹 Português obrigatório