
A Reply é especializada no design e implantação de soluções baseadas em novos canais de comunicação e mídias digitais. Como uma rede de empresas altamente especializadas, a Reply define e desenvolve modelos de negócios habilitados pelos novos paradigmas de IA, big data, computação em nuvem, mídias digitais e internet das coisas. A Reply oferece consultoria, integração de sistemas e serviços digitais para organizações nos setores de telecomunicações e mídia; indústria e serviços; bancário e de seguros; e setores públicos.
10.000+ funcionários
Fundada em 1996
Outubro 23
🗣️🇧🇷🇵🇹 Português obrigatório

A Reply é especializada no design e implantação de soluções baseadas em novos canais de comunicação e mídias digitais. Como uma rede de empresas altamente especializadas, a Reply define e desenvolve modelos de negócios habilitados pelos novos paradigmas de IA, big data, computação em nuvem, mídias digitais e internet das coisas. A Reply oferece consultoria, integração de sistemas e serviços digitais para organizações nos setores de telecomunicações e mídia; indústria e serviços; bancário e de seguros; e setores públicos.
10.000+ funcionários
Fundada em 1996
• Construir e gerenciar pipelines confiáveis de dados envolvendo ingestão/coleta, processamento, integração, armazenamento e disponibilização de dados na organização. • Atuar em uma arquitetura de sistemas distribuídos para o processamento de dados massivos em paralelo (MPP), combinando diversas fontes de dados heterogêneas e colaborando com equipes de análise e ciência de dados na construção de soluções e geração de valor baseadas em dados.
• Experiência prática com ingestão, integração, processamento e armazenamento de grandes volumes de dados; • Atuação em projetos de Big Data; • Behavior Driven Development (BDD). • Extração de dados em Python e processamento de dados com PySpark; • Experiências em ferramentas ETL's; • Conhecimento em modelagem de dados relacionais e dimensionais (Data WareHouse); • Experiência com bancos de dados SQL; • Experiência com conjunto de ferramentas relacionadas a Big Data na AWS como: EMR, Kinesis, RedShift, S3, Glue, ElasticSearch; • Conhecimento em Kafka; • Conhecimento com Data Lake e Data Ops. • Desejável/ Diferencial Certificações AWS; • Conhecimento em ferramentas de provisionamento de infraestrutura em cloud via código tais como: Terraform, CloudFormation.
• Cartão flexível Swile pra você usar como quiser (VA e VR) • Totalpass ou Gympass • Apoio à Saúde Mental – Psicologia Viva • Plano de Saúde Bradesco • Plano Odontológico Bradesco • Participação nos Lucros • Auxílio-Creche para nossas mamães • Incentivo a certificações • Palestras e Webinars especiais • Programa RAF de bonificação por indicações • Seguro de Vida • Subsídio para Inglês ou Italiano • Desconto Open English • Presente de aniversário • Possibilidade de mudança do país • Parcerias com Universidades
Candidatar-seOutubro 22
Engenheiro de Dados Sênior projetando e construindo modelos de dados escaláveis para as soluções globais de mobilidade da VOLL. Automatizando o processamento de dados e integrando fontes externas de dados.
🗣️🇧🇷🇵🇹 Português obrigatório
Outubro 22
Arquiteto de Dados AWS especializado em soluções de nuvem escaláveis para os serviços de transformação tecnológica da CI&T. Colaboração com clientes e integração de tecnologias de ponta para projetos de alto impacto.
🇧🇷 Brasil – Remoto
💰 $5.500.000 Venture Round em 2014-04
⏰ Tempo Integral
🟡 Pleno
🟠 Sênior
🚰 Engenheiro de Dados
🗣️🇧🇷🇵🇹 Português obrigatório
🗣️🇺🇸🇬🇧 Inglês obrigatório
Outubro 21
Engenheiro(a) Sênior de DataOps contribuindo para o futuro da plataforma de dados da Mural ao otimizar a infraestrutura de dados. Colaboração com equipes globais para construir sistemas escaláveis e de alto desempenho.
🗣️🇺🇸🇬🇧 Inglês obrigatório
Outubro 18
Engenheiro de Dados responsável por desenvolver e otimizar processos de dados e dar suporte a pipelines. Junte-se à Keyrus para alavancar dados e criar oportunidades de crescimento.
🗣️🇧🇷🇵🇹 Português obrigatório
Outubro 15
Engenheiro de Dados desenvolvendo pipelines usando ferramentas como Airflow e Spark na Compass UOL. Requer conhecimento em AWS e Python/Scala para otimização de processos de dados.
🗣️🇧🇷🇵🇹 Português obrigatório