Senior Data Engineer, GCP

August 16

🗣️🇧🇷🇵🇹 Portuguese Required

Apply Now
Logo of Keyrus

Keyrus

B2B • Data Analytics • Consulting

Keyrus is an international company passionate about leveraging data to make impactful changes in life, society, and the future. With a presence in 18 countries, Keyrus is dedicated to creating meaningful careers for its employees by fostering excellence, trust, creativity, kindness, and fun. Specializing in data analytics, data advisory, and management, Keyrus provides vendor-agnostic solutions and continuous training opportunities through its KLX platform. The company also emphasizes a healthy work-life balance with a range of benefits, including sports events, healthcare plans, and an inclusive work culture. Keyrus is committed to openness and transparency to maintain positive workplace relationships and is driven to innovate and influence the digital future.

1001 - 5000 employees

Founded 1996

🤝 B2B

📋 Description

• Papéis e Responsabilidades: Projetar, desenvolver e manter pipelines de dados robustos, escaláveis e eficientes no Google Cloud Platform (GCP), com ênfase no BigQuery. • Experiência comprovada com gestão de equipes multifuncionais, com foco em engenharia de dados preferencialmente; • Capacidade de negociação e gerenciamento de demandas com auto escalão do cliente; • Implementar e gerenciar processos de ingestão de dados provenientes de sistemas ERP, arquivos não sistêmicos e APIs. • Criar, otimizar e documentar modelos de dados dimensionais e soluções analíticas em arquitetura Lakehouse. • Trabalhar em conjunto com times de analytics, data science e produto para viabilizar análises avançadas. • Garantir qualidade, governança e segurança dos dados durante todo o ciclo de vida. • Orquestrar e monitorar processos ETL/ELT utilizando Informatica Cloud. • Implementar melhores práticas de engenharia de dados, incluindo versionamento, automação e testes.

🎯 Requirements

• Experiência comprovada em Google Cloud Platform (GCP) com domínio de BigQuery. • Sólida vivência com Informatica Cloud para orquestração de pipelines de dados. • Forte conhecimento em ambientes analíticos baseados em Lakehouse. • Domínio de modelagem dimensional para Data Warehouses. • Experiência na ingestão de dados a partir de sistemas ERP, arquivos não sistêmicos e APIs. • Conhecimento em SQL avançado e boas práticas de performance tuning. • Experiência em garantir governança e segurança de dados.

Apply Now

Similar Jobs

August 14

Engenheiro de Dados Sênior na GFT. Foco em Terraform, AWS Glue, PySpark e CI/CD

🗣️🇧🇷🇵🇹 Portuguese Required

AWS

Pandas

PySpark

Python

Terraform

August 13

Econodata

11 - 50

DATA HACKERS na Econodata, startup de IA e Big Data, desenvolvendo dados para web crawling. Constrói pipelines com SQL/NoSQL, Elasticsearch, Airflow, Python, Kubernetes e Docker.

🗣️🇧🇷🇵🇹 Portuguese Required

Airflow

AWS

Docker

ElasticSearch

ETL

Flash

Google Cloud Platform

Kubernetes

MongoDB

NoSQL

Postgres

Python

SQL

August 12

Econodata

11 - 50

Data Engineer pleno na Econodata, startup de IA e Big Data para inteligência de vendas. Desenvolve robôs de dados, pipelines de aquisição e otimização de infra.

🗣️🇧🇷🇵🇹 Portuguese Required

Airflow

AWS

Docker

ElasticSearch

ETL

Flash

Google Cloud Platform

Kubernetes

MongoDB

NoSQL

Postgres

Python

SQL

August 9

Remote Senior Data Engineer at RunTalent; data modeling, Teradata, ODI, PowerBI desirable.

🗣️🇧🇷🇵🇹 Portuguese Required

Node.js

SQL

August 9

Engenheiro de Dados para trabalho remoto na Ultracon TI. Local de trabalho: Sao Paulo (100% remoto); início imediato.

🗣️🇧🇷🇵🇹 Portuguese Required

Docker

ElasticSearch

Hadoop

HBase

HDFS

Kubernetes

Linux

MapReduce

Maven

MongoDB

Node.js

Oracle

Python

Scala

SOAP

SQL

Yarn

Zookeeper

Built by Lior Neu-ner. I'd love to hear your feedback — Get in touch via DM or support@remoterocketship.com