
Banking • Finance • Fintech
VIACERTA Banking SA is a financial institution that focuses on providing credit simulation services to its clients. By offering tools for individuals and businesses to assess their credit options, VIACERTA aims to simplify the borrowing process and empower customers to make informed financial decisions.
201 - 500 employees
Founded 2001
🏦 Banking
💸 Finance
💳 Fintech
November 13
🗣️🇧🇷🇵🇹 Portuguese Required

Banking • Finance • Fintech
VIACERTA Banking SA is a financial institution that focuses on providing credit simulation services to its clients. By offering tools for individuals and businesses to assess their credit options, VIACERTA aims to simplify the borrowing process and empower customers to make informed financial decisions.
201 - 500 employees
Founded 2001
🏦 Banking
💸 Finance
💳 Fintech
• Projetar, desenvolver e manter pipelines de dados (ETL/ELT) robustos, eficientes e escaláveis utilizando o ecossistema Databricks ou similar (PySpark e SQL). • Implementar e gerenciar a arquitetura Medallion, garantindo a correta transição, limpeza, enriquecimento e agregação dos dados entre as camadas Bronze, Prata e Ouro. • Construir e otimizar processos de ingestão de dados de diversas fontes (APIs, bancos de dados relacionais e não-relacionais, streaming, etc.). • Colaborar com Analistas de Negócios, Cientistas de Dados e outras áreas de negócio para entender os requisitos e disponibilizar dados de alta qualidade para consumo. • Garantir a qualidade, integridade, segurança e governança dos dados em todo o ciclo de vida, aplicando as melhores práticas do mercado. • Otimizar o desempenho de jobs Spark ou similares e consultas SQL no ambiente Databricks, Delta Lake ou similares. • Documentar as soluções de dados, arquiteturas e fluxos de trabalho. • (Para Sênior) Atuar como referência técnica, mentorar membros da equipe e liderar definições de arquitetura de dados.
• Experiência sólida (Pleno) ou avançada (Sênior) atuando como Engenheiro(a) de Dados. • Proficiência em SQL para manipulação e consulta de grandes volumes de dados. • Conhecimento em Python aplicado a dados. • Experiência prática e comprovada com o ecossistema Databricks (Notebooks, Delta Lake, Spark SQL, Jobs) ou similares. • Sólidos conhecimentos em modelagem de dados (Dimensional, Data Warehouse) e conceitos de Data Lake e Data Lakehouse. • Experiência na construção, orquestração e monitoramento de pipelines de dados (ETL/ELT). • Experiência com pelo menos uma plataforma de nuvem (AWS, Azure ou GCP). • Conhecimento em controle de versão (Git).
• Vale Alimentação • Vale-transporte • Plano de Saúde Unimed Nacional • Atendimento Psicológico • Seguro de Vida • Day Off no mês de aniversário • 14º 15º • Participação nos Resultados
Apply NowNovember 13
Data Engineer responsible for developing and optimizing data pipelines in Azure Cloud for banking projects. Focus on credit loans with a 100% home-office work model.
🗣️🇧🇷🇵🇹 Portuguese Required
November 13
Data Engineer developing and maintaining efficient data pipelines using Apache Spark at Serasa Experian. Collaborating with multidisciplinary teams for data governance and architecture improvements.
🗣️🇧🇷🇵🇹 Portuguese Required
November 13
Senior SAP consultant handling data migration projects at IT2YOU. Requires advanced English or Spanish and experience in SAP rollout.
🗣️🇧🇷🇵🇹 Portuguese Required
🗣️🇪🇸 Spanish Required
November 12
Data Engineer role responsible for cleaning, transforming, and analyzing data for credit solutions at OPEA. Working with data pipelines, reporting, and collaborating on strategic business decisions.
🗣️🇧🇷🇵🇹 Portuguese Required
November 12
Senior Data Engineer developing scalable pipelines in AWS and Databricks at Cadastra. Focused on data projects for Martech integrating information from various sources.
🗣️🇧🇷🇵🇹 Portuguese Required