Engenheiro de Dados Sênior

Novembro 26

🗣️🇺🇸🇬🇧 Inglês obrigatório

Candidatar-se
Logo of Valtech

Valtech

B2B • Marketing • SaaS

Valtech é uma agência digital global focada em inovação em experiências. A empresa se dedica a transformar negócios por meio da combinação de tecnologia, marketing e estratégias orientadas por dados. A Valtech ajuda companhias a elevar sua presença digital e impulsionar estratégias de Commerce, a acelerar transformações digitais em nível corporativo e a destravar o potencial de marketing e performance. A empresa também utiliza dados e IA para ajudar organizações a aproveitar o poder da informação. Com escritórios ao redor do mundo, a Valtech faz parcerias com empresas para moldar seus futuros digitais, oferecendo um conjunto de serviços e insights projetados para aprimorar as experiências dos clientes.

5001 - 10000 funcionários

Fundada em 1997

🤝 B2B

☁️ SaaS

Descrição

• Projetar, construir e manter pipelines ETL/ELT altamente escaláveis, confiáveis e eficientes para processamento de dados em lote e em tempo real usando diversas ferramentas e tecnologias. • Ingerir dados de múltiplas fontes, incluindo bancos de dados relacionais, APIs, serviços de streaming, armazenamento em nuvem e provedores de dados de terceiros. • Transformar dados brutos em formatos limpos, estruturados e prontos para AI/ML para consumo por cientistas de dados e modelos de machine learning. • Monitorar pipelines de dados quanto a desempenho, integridade e segurança, solucionando problemas conforme surgem. • Contribuir para o desenho e evolução da arquitetura de dados, incluindo data lakes, data warehouses e data marts, garantindo que atendam às demandas de workloads de AI. • Implementar e otimizar soluções de armazenamento de dados (ex.: S3, Azure Data Lake Storage, BigQuery, Snowflake) e frameworks de processamento (ex.: Apache Spark, Flink, Kafka). • Garantir segurança, privacidade e conformidade dos dados com políticas internas e regulamentos externos (ex.: GDPR, CCPA). • Avaliar e integrar novas tecnologias e ferramentas de dados para ampliar as capacidades da nossa plataforma de dados. • Trabalhar em estreita colaboração com cientistas de dados, engenheiros de machine learning e analistas de negócio para entender suas necessidades de dados e fornecer soluções sob medida. • Viabilizar acesso eficiente a dados para treinamento, validação e deployment de modelos, incluindo feature engineering e versionamento de dados. • Apoiar o ciclo de vida de MLOps fornecendo bases de dados robustas para re-treinamento automatizado de modelos e monitoramento. • Otimizar o processamento de dados para algoritmos de machine learning, garantindo alto desempenho e eficiência de custos. • Implementar e aplicar verificações de qualidade e processos de validação de dados dentro das pipelines para manter alta integridade dos dados. • Desenvolver e manter documentação abrangente de dados, incluindo dicionários de dados, lineage e gestão de metadata. • Contribuir para iniciativas de governança de dados, garantindo definições e uso de dados consistentes em toda a organização.

🎯 Requisitos

• Graduação (Bacharelado) ou Mestrado em Ciência da Computação, Engenharia de Dados, Engenharia de Software ou área quantitativa relacionada. • Mínimo de 3–5 anos de experiência como Engenheiro de Dados, com experiência significativa na construção e gestão de plataformas de dados. • Experiência comprovada em projetos que suportam diretamente iniciativas de Artificial Intelligence, Machine Learning ou Data Science. • Forte proficiência em pelo menos uma linguagem de programação moderna (ex.: Python, Scala, Java). Python é altamente preferido. • Experiência extensiva com frameworks de processamento de big data e processamento de stream. • Experiência prática com serviços de dados do GCP (ex.: BigQuery, Dataflow, Dataproc). • Sólido entendimento de SQL e experiência com diversos sistemas de banco de dados (ex.: PostgreSQL, MySQL, SQL Server, bancos NoSQL como MongoDB, Cassandra). • Experiência com conceitos e tecnologias de data warehousing (ex.: Google BigQuery). • Experiência com ferramentas de orquestração de workflows (ex.: Airflow, Prefect, Luigi). • Proficiência com Git e fluxos de trabalho colaborativos de desenvolvimento. • Bom entendimento de modelagem de dados, princípios de data warehousing e arquiteturas de data lake. • Familiaridade com conceitos de machine learning, princípios de MLOps e com a forma como pipelines de dados alimentam modelos de AI. • Excelentes habilidades analíticas e de resolução de problemas, com atenção aos detalhes e à precisão dos dados. • Fortes habilidades de comunicação, capaz de articular conceitos técnicos complexos para públicos técnicos e não técnicos. • Capacidade de trabalhar de forma eficaz em um ambiente de equipe Ágil, colaborando com times multidisciplinares. • Comunicação em inglês em nível avançado.

🏖️ Benefícios

• Flexibilidade, com opções de trabalho remoto e híbrido (dependendo do país) • Avanço na carreira, com mobilidade internacional e programas de desenvolvimento profissional • Aprendizado e desenvolvimento, com acesso a ferramentas de ponta, treinamentos e especialistas do setor

Candidatar-se

Vagas Similares

Novembro 25

Vobi (YC W22)

11 - 50

🤝 B2B

⚡ Produtividade

Engenheiro de Dados responsável pela transformação e governança de dados em AWS para uma plataforma de tecnologia do setor da construção. Colabora com equipes para aprimorar a arquitetura de dados e a modelagem.

🇧🇷 Brasil – Remoto

💰 $7.000.000 Seed Round em 2022-02

⏰ Tempo Integral

🟡 Pleno

🟠 Sênior

🚰 Engenheiro de Dados

🗣️🇧🇷🇵🇹 Português obrigatório

Novembro 20

Oowlish

51 - 200

🤝 B2B

💳 Fintech

Engenheiro de Dados Sênior na Oowlish para construir e manter pipelines de dados e infraestrutura escaláveis para clientes globais diversos. Oportunidades de desenvolvimento profissional e participação em projetos internacionais.

🗣️🇺🇸🇬🇧 Inglês obrigatório

🗣️🇧🇷🇵🇹 Português obrigatório

Novembro 19

Experian

10001

🤖 Inteligência Artificial

🤝 B2B

☁️ SaaS

Especialista em Engenharia de Dados na Serasa Experian, focado no desenvolvimento de pipelines de dados escaláveis usando Scala e Apache Spark, colaborando em squads multidisciplinares.

🗣️🇧🇷🇵🇹 Português obrigatório

🗣️🇺🇸🇬🇧 Inglês obrigatório

Novembro 18

Leega

201 - 500

🔌 API

🤖 Inteligência Artificial

Engenheiro de Dados Sênior com foco em governança e otimização de custos no BigQuery na Leega. Colaboração no desenvolvimento de pipelines de dados e garantia de migração eficiente para o GCP.

🗣️🇧🇷🇵🇹 Português obrigatório

Novembro 18

Leega

201 - 500

🔌 API

🤖 Inteligência Artificial

Engenheiro de Dados na Leega, com foco em construir e manter pipelines ETL. Atua em colaboração com as equipes para garantir a integridade e disponibilidade dos dados, otimizando o desempenho.

🗣️🇧🇷🇵🇹 Português obrigatório

Desenvolvido por Lior Neu-ner. Adoraria receber seu feedback — entre em contato por DM ou pelo e-mail support@remoterocketship.com