
Artificial Intelligence • B2B • SaaS
Experian is a global leader in digital experience, technology, and transformation. They partner with recognized brands to enhance customer understanding, innovate product strategies, and implement agile technology solutions. With a focus on delivering superior customer experiences through AI, cloud architecture, and project management, Experian helps businesses streamline their operations and achieve their objectives effectively.
September 25
🗣️🇧🇷🇵🇹 Portuguese Required

Artificial Intelligence • B2B • SaaS
Experian is a global leader in digital experience, technology, and transformation. They partner with recognized brands to enhance customer understanding, innovate product strategies, and implement agile technology solutions. With a focus on delivering superior customer experiences through AI, cloud architecture, and project management, Experian helps businesses streamline their operations and achieve their objectives effectively.
• Desenvolver e manter pipelines de dados escaláveis utilizando Scala e Apache Spark, com foco em performance e reutilização • Estruturar e evoluir a arquitetura medalhão (bronze, silver, gold), garantindo governança, rastreabilidade e qualidade dos dados • Implementar soluções de ingestão, transformação e disponibilização de dados em ambientes cloud e lakehouse • Definir e aplicar boas práticas de engenharia de dados, incluindo versionamento, testes automatizados e CI/CD • Apoiar decisões técnicas e arquiteturais junto aos times de engenharia e produto • Atuar em squads multidisciplinares, colaborando com engenheiros, analistas e cientistas de dados • Participar de rituais ágeis e contribuir com a evolução contínua dos processos e ferramentas • Monitorar e otimizar pipelines em produção, garantindo confiabilidade e eficiência • Trabalhar com ferramentas como Airflow, Delta Lake, Iceberg, e ambiente AWS • Investigar e propor melhorias em arquitetura, performance e segurança dos dados
• Experiência sólida com Python, Scala e Apache Spark em ambientes distribuídos • Domínio de arquitetura medalhão (bronze, silver, gold) e conceitos de data lake / lakehouse • Conhecimento avançado em modelagem de dados, ETL/ELT e pipelines de dados • Vivência com ferramentas de orquestração como Airflow ou similares • Experiência com ambientes cloud (Azure, AWS ou GCP) • Práticas de engenharia: versionamento, testes automatizados e automação (CI/CD) • Idioma: Inglês - Técnico
• Employees can work remotely • Ambiente inclusivo e equilíbrio entre carreira e compromissos pessoais, prezando pelo bem-estar • Investimento em novas tecnologias e desenvolvimento profissional • Reconhecimentos e certificações (Great Place To Work™, Top Employers, Glassdoor 4.6)
Apply NowSeptember 24
Airflow
Docker
ETL
Hadoop
Jenkins
Kafka
Kubernetes
OpenShift
Postgres
Python
Spark
SQL
September 18
Data Engineer focused on Power BI and analytics at GFT. Implements BI solutions and governance.
🗣️🇧🇷🇵🇹 Portuguese Required
SQL
September 18
Data Engineer integrating SAP with Azure data platforms at GFT. Build Synapse/ADF pipelines, PySpark transforms, and data governance.
🗣️🇧🇷🇵🇹 Portuguese Required
Azure
PySpark
Python
Spark
SQL
September 15
Senior Data Engineer at GFT building AWS-based big data, ETL and data mesh solutions. Work with PySpark, SQL, NoSQL, batch and realtime ingestion.
🗣️🇧🇷🇵🇹 Portuguese Required
AWS
DynamoDB
ETL
Hadoop
MongoDB
NoSQL
PySpark
Python
Spark
SQL
Terraform
September 15
Senior Data Engineer at GFT building ETL and real-time pipelines on AWS. Work with Spark, Hadoop, SQL, NoSQL, and data mesh architectures.
🗣️🇧🇷🇵🇹 Portuguese Required
AWS
DynamoDB
ETL
Hadoop
MongoDB
NoSQL
PySpark
Python
Spark
SQL
Terraform