
B2B • Marketing • SaaS
Valtech é uma agência digital global focada em inovação em experiências. A empresa se dedica a transformar negócios por meio da combinação de tecnologia, marketing e estratégias orientadas por dados. A Valtech ajuda companhias a elevar sua presença digital e impulsionar estratégias de Commerce, a acelerar transformações digitais em nível corporativo e a destravar o potencial de marketing e performance. A empresa também utiliza dados e IA para ajudar organizações a aproveitar o poder da informação. Com escritórios ao redor do mundo, a Valtech faz parcerias com empresas para moldar seus futuros digitais, oferecendo um conjunto de serviços e insights projetados para aprimorar as experiências dos clientes.
5001 - 10000 funcionários
Fundada em 1997
🤝 B2B
☁️ SaaS
Novembro 26
🗣️🇺🇸🇬🇧 Inglês obrigatório
Airflow
Apache
Azure
BigQuery
Cassandra
Cloud
ETL
Google Cloud Platform
Java
Kafka
MongoDB
MySQL
NoSQL
Postgres
Python
Scala
Spark
SQL

B2B • Marketing • SaaS
Valtech é uma agência digital global focada em inovação em experiências. A empresa se dedica a transformar negócios por meio da combinação de tecnologia, marketing e estratégias orientadas por dados. A Valtech ajuda companhias a elevar sua presença digital e impulsionar estratégias de Commerce, a acelerar transformações digitais em nível corporativo e a destravar o potencial de marketing e performance. A empresa também utiliza dados e IA para ajudar organizações a aproveitar o poder da informação. Com escritórios ao redor do mundo, a Valtech faz parcerias com empresas para moldar seus futuros digitais, oferecendo um conjunto de serviços e insights projetados para aprimorar as experiências dos clientes.
5001 - 10000 funcionários
Fundada em 1997
🤝 B2B
☁️ SaaS
• Projetar, construir e manter pipelines ETL/ELT altamente escaláveis, confiáveis e eficientes para processamento de dados em lote e em tempo real usando diversas ferramentas e tecnologias. • Ingerir dados de múltiplas fontes, incluindo bancos de dados relacionais, APIs, serviços de streaming, armazenamento em nuvem e provedores de dados de terceiros. • Transformar dados brutos em formatos limpos, estruturados e prontos para AI/ML para consumo por cientistas de dados e modelos de machine learning. • Monitorar pipelines de dados quanto a desempenho, integridade e segurança, solucionando problemas conforme surgem. • Contribuir para o desenho e evolução da arquitetura de dados, incluindo data lakes, data warehouses e data marts, garantindo que atendam às demandas de workloads de AI. • Implementar e otimizar soluções de armazenamento de dados (ex.: S3, Azure Data Lake Storage, BigQuery, Snowflake) e frameworks de processamento (ex.: Apache Spark, Flink, Kafka). • Garantir segurança, privacidade e conformidade dos dados com políticas internas e regulamentos externos (ex.: GDPR, CCPA). • Avaliar e integrar novas tecnologias e ferramentas de dados para ampliar as capacidades da nossa plataforma de dados. • Trabalhar em estreita colaboração com cientistas de dados, engenheiros de machine learning e analistas de negócio para entender suas necessidades de dados e fornecer soluções sob medida. • Viabilizar acesso eficiente a dados para treinamento, validação e deployment de modelos, incluindo feature engineering e versionamento de dados. • Apoiar o ciclo de vida de MLOps fornecendo bases de dados robustas para re-treinamento automatizado de modelos e monitoramento. • Otimizar o processamento de dados para algoritmos de machine learning, garantindo alto desempenho e eficiência de custos. • Implementar e aplicar verificações de qualidade e processos de validação de dados dentro das pipelines para manter alta integridade dos dados. • Desenvolver e manter documentação abrangente de dados, incluindo dicionários de dados, lineage e gestão de metadata. • Contribuir para iniciativas de governança de dados, garantindo definições e uso de dados consistentes em toda a organização.
• Graduação (Bacharelado) ou Mestrado em Ciência da Computação, Engenharia de Dados, Engenharia de Software ou área quantitativa relacionada. • Mínimo de 3–5 anos de experiência como Engenheiro de Dados, com experiência significativa na construção e gestão de plataformas de dados. • Experiência comprovada em projetos que suportam diretamente iniciativas de Artificial Intelligence, Machine Learning ou Data Science. • Forte proficiência em pelo menos uma linguagem de programação moderna (ex.: Python, Scala, Java). Python é altamente preferido. • Experiência extensiva com frameworks de processamento de big data e processamento de stream. • Experiência prática com serviços de dados do GCP (ex.: BigQuery, Dataflow, Dataproc). • Sólido entendimento de SQL e experiência com diversos sistemas de banco de dados (ex.: PostgreSQL, MySQL, SQL Server, bancos NoSQL como MongoDB, Cassandra). • Experiência com conceitos e tecnologias de data warehousing (ex.: Google BigQuery). • Experiência com ferramentas de orquestração de workflows (ex.: Airflow, Prefect, Luigi). • Proficiência com Git e fluxos de trabalho colaborativos de desenvolvimento. • Bom entendimento de modelagem de dados, princípios de data warehousing e arquiteturas de data lake. • Familiaridade com conceitos de machine learning, princípios de MLOps e com a forma como pipelines de dados alimentam modelos de AI. • Excelentes habilidades analíticas e de resolução de problemas, com atenção aos detalhes e à precisão dos dados. • Fortes habilidades de comunicação, capaz de articular conceitos técnicos complexos para públicos técnicos e não técnicos. • Capacidade de trabalhar de forma eficaz em um ambiente de equipe Ágil, colaborando com times multidisciplinares. • Comunicação em inglês em nível avançado.
• Flexibilidade, com opções de trabalho remoto e híbrido (dependendo do país) • Avanço na carreira, com mobilidade internacional e programas de desenvolvimento profissional • Aprendizado e desenvolvimento, com acesso a ferramentas de ponta, treinamentos e especialistas do setor
Candidatar-seNovembro 25
Engenheiro de Dados responsável pela transformação e governança de dados em AWS para uma plataforma de tecnologia do setor da construção. Colabora com equipes para aprimorar a arquitetura de dados e a modelagem.
🇧🇷 Brasil – Remoto
💰 $7.000.000 Seed Round em 2022-02
⏰ Tempo Integral
🟡 Pleno
🟠 Sênior
🚰 Engenheiro de Dados
🗣️🇧🇷🇵🇹 Português obrigatório
Novembro 20
Engenheiro de Dados Sênior na Oowlish para construir e manter pipelines de dados e infraestrutura escaláveis para clientes globais diversos. Oportunidades de desenvolvimento profissional e participação em projetos internacionais.
🗣️🇺🇸🇬🇧 Inglês obrigatório
🗣️🇧🇷🇵🇹 Português obrigatório
Novembro 19
Especialista em Engenharia de Dados na Serasa Experian, focado no desenvolvimento de pipelines de dados escaláveis usando Scala e Apache Spark, colaborando em squads multidisciplinares.
🗣️🇧🇷🇵🇹 Português obrigatório
🗣️🇺🇸🇬🇧 Inglês obrigatório
Novembro 18
Engenheiro de Dados Sênior com foco em governança e otimização de custos no BigQuery na Leega. Colaboração no desenvolvimento de pipelines de dados e garantia de migração eficiente para o GCP.
🗣️🇧🇷🇵🇹 Português obrigatório
Novembro 18
Engenheiro de Dados na Leega, com foco em construir e manter pipelines ETL. Atua em colaboração com as equipes para garantir a integridade e disponibilidade dos dados, otimizando o desempenho.
🗣️🇧🇷🇵🇹 Português obrigatório