
Social Impact • Media
Territorio Hibrido is an organization whose name suggests work at the intersection of physical territories and hybrid (digital/physical/cultural) practices. Likely a multidisciplinary collective or consultancy focused on urban/regional projects, community engagement, cultural or creative programming, and integrating digital tools with place-based initiatives. More information is needed to refine this description and industry classification.
November 14
🗣️🇧🇷🇵🇹 Portuguese Required

Social Impact • Media
Territorio Hibrido is an organization whose name suggests work at the intersection of physical territories and hybrid (digital/physical/cultural) practices. Likely a multidisciplinary collective or consultancy focused on urban/regional projects, community engagement, cultural or creative programming, and integrating digital tools with place-based initiatives. More information is needed to refine this description and industry classification.
• Desenvolver e manter pipelines de dados escaláveis de ETL/ELT, realizando a extração, transformação e carga de dados a partir de múltiplas fontes, utilizando Pentaho Data Integration como principal plataforma. • Integrar novas fontes de dados aos sistemas existentes, garantindo a qualidade, consistência e disponibilidade dos dados para uso pelas equipes de análise e negócios (por exemplo, para dashboards no Power BI). • Otimizar e monitorar o desempenho dos processos de dados, realizando tuning e ajustes necessários para assegurar pipelines eficientes, confiáveis e com baixa latência. • Colaborar com o Arquiteto de Automação e times de BI/Analytics, entendendo requisitos de dados dos projetos de automação e de relatórios, para entregar soluções alinhadas a essas necessidades. • Implementar práticas de governança, segurança e compliance de dados, assegurando que os pipelines atendam às políticas de proteção de dados e que a qualidade dos dados seja continuamente verificada (monitoramento de falhas, dados faltantes, etc.). • Documentar os processos e fluxos de dados desenvolvidos, mantendo registros claros das transformações, configurações de pipeline e arquitetura, facilitando a manutenção e futuras evoluções.
• Experiência prévia em Engenharia de Dados (proporcional à senioridade da vaga), atuando na construção de pipelines de dados e processos de integração em ambientes de produção. • Domínio de ferramentas de ETL e integração de dados, em especial experiência com Pentaho Data Integration, para desenvolver jobs de extração, transformação e carga de dados. • Proficiência em programação, especialmente em Python, para manipulação de dados e automação de fluxos. • Sólidos conhecimentos de SQL e experiência com bancos de dados relacionais (design de consultas complexas, otimização de queries, modelagem de dados). • Vivência com ambientes de dados em nuvem (Cloud Computing), por exemplo, experiência com plataformas e serviços de dados na AWS, Azure ou GCP, incluindo armazenamento e processamento de dados na nuvem. • Conhecimento em arquitetura de dados e Data Warehousing, incluindo modelagem dimensional e conceitual, compreensão de processos ETL/ELT e melhores práticas para construção de data pipelines confiáveis. • Habilidade em resolução de problemas e análise de causas raiz em pipelines de dados, com capacidade de depurar falhas em jobs, tratar exceções nos processos de ETL e garantir a integridade dos dados entregues.
• Oferecemos um pacote de benefícios competitivo e flexível (detalhado posteriormente conforme o modelo de contratação), incluindo apoio para home office e incentivo a desenvolvimento profissional.
Apply NowNovember 14
Lead DataOps and Databricks-based pipeline development to deliver reliable, production-grade data solutions. Mentor engineers and implement DataOps best practices across cloud environments.
🗣️🇧🇷🇵🇹 Portuguese Required
Airflow
AWS
Azure
Cloud
ETL
Google Cloud Platform
PySpark
Python
SQL
November 13
Data Engineer responsible for creating and managing data pipelines and architectures for a corporate data platform. Join a collaborative environment with opportunities for personal and professional growth.
🗣️🇧🇷🇵🇹 Portuguese Required
AWS
Azure
ETL
Google Cloud Platform
PySpark
Python
Spark
SQL
November 13
Data Engineer responsible for developing and optimizing data pipelines in Azure Cloud for banking projects. Focus on credit loans with a 100% home-office work model.
🗣️🇧🇷🇵🇹 Portuguese Required
Azure
Cloud
ETL
Python
November 13
Data Engineer developing and maintaining efficient data pipelines using Apache Spark at Serasa Experian. Collaborating with multidisciplinary teams for data governance and architecture improvements.
🗣️🇧🇷🇵🇹 Portuguese Required
Airflow
Apache
AWS
Azure
Cloud
ETL
Google Cloud Platform
Python
Scala
Spark
November 13
Senior SAP consultant handling data migration projects at IT2YOU. Requires advanced English or Spanish and experience in SAP rollout.
🗣️🇧🇷🇵🇹 Portuguese Required
🗣️🇪🇸 Spanish Required