Engenheiro de Dados Sênior

Job not on LinkedIn

November 14

🗣️🇧🇷🇵🇹 Portuguese Required

Apply Now
Logo of Territorio Hibrido

Territorio Hibrido

Social Impact • Media

Territorio Hibrido is an organization whose name suggests work at the intersection of physical territories and hybrid (digital/physical/cultural) practices. Likely a multidisciplinary collective or consultancy focused on urban/regional projects, community engagement, cultural or creative programming, and integrating digital tools with place-based initiatives. More information is needed to refine this description and industry classification.

📋 Description

• Desenvolver e manter pipelines de dados escaláveis de ETL/ELT, realizando a extração, transformação e carga de dados a partir de múltiplas fontes, utilizando Pentaho Data Integration como principal plataforma. • Integrar novas fontes de dados aos sistemas existentes, garantindo a qualidade, consistência e disponibilidade dos dados para uso pelas equipes de análise e negócios (por exemplo, para dashboards no Power BI). • Otimizar e monitorar o desempenho dos processos de dados, realizando tuning e ajustes necessários para assegurar pipelines eficientes, confiáveis e com baixa latência. • Colaborar com o Arquiteto de Automação e times de BI/Analytics, entendendo requisitos de dados dos projetos de automação e de relatórios, para entregar soluções alinhadas a essas necessidades. • Implementar práticas de governança, segurança e compliance de dados, assegurando que os pipelines atendam às políticas de proteção de dados e que a qualidade dos dados seja continuamente verificada (monitoramento de falhas, dados faltantes, etc.). • Documentar os processos e fluxos de dados desenvolvidos, mantendo registros claros das transformações, configurações de pipeline e arquitetura, facilitando a manutenção e futuras evoluções.

🎯 Requirements

• Experiência prévia em Engenharia de Dados (proporcional à senioridade da vaga), atuando na construção de pipelines de dados e processos de integração em ambientes de produção. • Domínio de ferramentas de ETL e integração de dados, em especial experiência com Pentaho Data Integration, para desenvolver jobs de extração, transformação e carga de dados. • Proficiência em programação, especialmente em Python, para manipulação de dados e automação de fluxos. • Sólidos conhecimentos de SQL e experiência com bancos de dados relacionais (design de consultas complexas, otimização de queries, modelagem de dados). • Vivência com ambientes de dados em nuvem (Cloud Computing), por exemplo, experiência com plataformas e serviços de dados na AWS, Azure ou GCP, incluindo armazenamento e processamento de dados na nuvem. • Conhecimento em arquitetura de dados e Data Warehousing, incluindo modelagem dimensional e conceitual, compreensão de processos ETL/ELT e melhores práticas para construção de data pipelines confiáveis. • Habilidade em resolução de problemas e análise de causas raiz em pipelines de dados, com capacidade de depurar falhas em jobs, tratar exceções nos processos de ETL e garantir a integridade dos dados entregues.

🏖️ Benefits

• Oferecemos um pacote de benefícios competitivo e flexível (detalhado posteriormente conforme o modelo de contratação), incluindo apoio para home office e incentivo a desenvolvimento profissional.

Apply Now

Similar Jobs

November 14

Lead DataOps and Databricks-based pipeline development to deliver reliable, production-grade data solutions. Mentor engineers and implement DataOps best practices across cloud environments.

🗣️🇧🇷🇵🇹 Portuguese Required

Airflow

AWS

Azure

Cloud

ETL

Google Cloud Platform

PySpark

Python

SQL

November 13

Data Engineer responsible for creating and managing data pipelines and architectures for a corporate data platform. Join a collaborative environment with opportunities for personal and professional growth.

🗣️🇧🇷🇵🇹 Portuguese Required

AWS

Azure

ETL

Google Cloud Platform

PySpark

Python

Spark

SQL

November 13

Data Engineer responsible for developing and optimizing data pipelines in Azure Cloud for banking projects. Focus on credit loans with a 100% home-office work model.

🗣️🇧🇷🇵🇹 Portuguese Required

Azure

Cloud

ETL

Python

November 13

Data Engineer developing and maintaining efficient data pipelines using Apache Spark at Serasa Experian. Collaborating with multidisciplinary teams for data governance and architecture improvements.

🗣️🇧🇷🇵🇹 Portuguese Required

Airflow

Apache

AWS

Azure

Cloud

ETL

Google Cloud Platform

Python

Scala

Spark

November 13

Senior SAP consultant handling data migration projects at IT2YOU. Requires advanced English or Spanish and experience in SAP rollout.

🗣️🇧🇷🇵🇹 Portuguese Required

🗣️🇪🇸 Spanish Required

Built by Lior Neu-ner. I'd love to hear your feedback — Get in touch via DM or support@remoterocketship.com