
B2B • Data Analytics • Consulting
Keyrus is an international company passionate about leveraging data to make impactful changes in life, society, and the future. With a presence in 18 countries, Keyrus is dedicated to creating meaningful careers for its employees by fostering excellence, trust, creativity, kindness, and fun. Specializing in data analytics, data advisory, and management, Keyrus provides vendor-agnostic solutions and continuous training opportunities through its KLX platform. The company also emphasizes a healthy work-life balance with a range of benefits, including sports events, healthcare plans, and an inclusive work culture. Keyrus is committed to openness and transparency to maintain positive workplace relationships and is driven to innovate and influence the digital future.
August 16
🗣️🇧🇷🇵🇹 Portuguese Required

B2B • Data Analytics • Consulting
Keyrus is an international company passionate about leveraging data to make impactful changes in life, society, and the future. With a presence in 18 countries, Keyrus is dedicated to creating meaningful careers for its employees by fostering excellence, trust, creativity, kindness, and fun. Specializing in data analytics, data advisory, and management, Keyrus provides vendor-agnostic solutions and continuous training opportunities through its KLX platform. The company also emphasizes a healthy work-life balance with a range of benefits, including sports events, healthcare plans, and an inclusive work culture. Keyrus is committed to openness and transparency to maintain positive workplace relationships and is driven to innovate and influence the digital future.
• Papéis e Responsabilidades: Projetar, desenvolver e manter pipelines de dados robustos, escaláveis e eficientes no Google Cloud Platform (GCP), com ênfase no BigQuery. • Experiência comprovada com gestão de equipes multifuncionais, com foco em engenharia de dados preferencialmente; • Capacidade de negociação e gerenciamento de demandas com auto escalão do cliente; • Implementar e gerenciar processos de ingestão de dados provenientes de sistemas ERP, arquivos não sistêmicos e APIs. • Criar, otimizar e documentar modelos de dados dimensionais e soluções analíticas em arquitetura Lakehouse. • Trabalhar em conjunto com times de analytics, data science e produto para viabilizar análises avançadas. • Garantir qualidade, governança e segurança dos dados durante todo o ciclo de vida. • Orquestrar e monitorar processos ETL/ELT utilizando Informatica Cloud. • Implementar melhores práticas de engenharia de dados, incluindo versionamento, automação e testes.
• Experiência comprovada em Google Cloud Platform (GCP) com domínio de BigQuery. • Sólida vivência com Informatica Cloud para orquestração de pipelines de dados. • Forte conhecimento em ambientes analíticos baseados em Lakehouse. • Domínio de modelagem dimensional para Data Warehouses. • Experiência na ingestão de dados a partir de sistemas ERP, arquivos não sistêmicos e APIs. • Conhecimento em SQL avançado e boas práticas de performance tuning. • Experiência em garantir governança e segurança de dados.
Apply NowAugust 14
Engenheiro de Dados Sênior na GFT. Foco em Terraform, AWS Glue, PySpark e CI/CD
🗣️🇧🇷🇵🇹 Portuguese Required
AWS
Pandas
PySpark
Python
Terraform
August 13
11 - 50
DATA HACKERS na Econodata, startup de IA e Big Data, desenvolvendo dados para web crawling. Constrói pipelines com SQL/NoSQL, Elasticsearch, Airflow, Python, Kubernetes e Docker.
🗣️🇧🇷🇵🇹 Portuguese Required
Airflow
AWS
Docker
ElasticSearch
ETL
Flash
Google Cloud Platform
Kubernetes
MongoDB
NoSQL
Postgres
Python
SQL
August 12
11 - 50
Data Engineer pleno na Econodata, startup de IA e Big Data para inteligência de vendas. Desenvolve robôs de dados, pipelines de aquisição e otimização de infra.
🗣️🇧🇷🇵🇹 Portuguese Required
Airflow
AWS
Docker
ElasticSearch
ETL
Flash
Google Cloud Platform
Kubernetes
MongoDB
NoSQL
Postgres
Python
SQL
August 9
Remote Senior Data Engineer at RunTalent; data modeling, Teradata, ODI, PowerBI desirable.
🗣️🇧🇷🇵🇹 Portuguese Required
Node.js
SQL
August 9
Engenheiro de Dados para trabalho remoto na Ultracon TI. Local de trabalho: Sao Paulo (100% remoto); início imediato.
🗣️🇧🇷🇵🇹 Portuguese Required
Docker
ElasticSearch
Hadoop
HBase
HDFS
Kubernetes
Linux
MapReduce
Maven
MongoDB
Node.js
Oracle
Python
Scala
SOAP
SQL
Yarn
Zookeeper