
Cybersecurity • Compliance • SaaS
GFT Technologies is a leading technology and digital transformation company that specializes in providing advanced solutions for consent management and data privacy compliance. Their flagship product, Cookiebot, enables businesses to automate user consent collection efficiently, ensuring adherence to complex privacy regulations such as GDPR and CCPA. GFT's solutions facilitate seamless integration into existing digital infrastructures, helping over 600,000 customers globally manage user data transparently and securely.
10,000+ employees
Founded 1987
🔒 Cybersecurity
📋 Compliance
☁️ SaaS
August 19
🗣️🇧🇷🇵🇹 Portuguese Required

Cybersecurity • Compliance • SaaS
GFT Technologies is a leading technology and digital transformation company that specializes in providing advanced solutions for consent management and data privacy compliance. Their flagship product, Cookiebot, enables businesses to automate user consent collection efficiently, ensuring adherence to complex privacy regulations such as GDPR and CCPA. GFT's solutions facilitate seamless integration into existing digital infrastructures, helping over 600,000 customers globally manage user data transparently and securely.
10,000+ employees
Founded 1987
🔒 Cybersecurity
📋 Compliance
☁️ SaaS
• Coletar, limpar e transformar dados brutos em formatos utilizáveis para análise. • Desenvolver e manter pipelines de dados eficientes e escaláveis. • Gerenciar, modelar e utilizar bancos de dados relacionais (SQL), não relacionais (NoSQL) e data warehouses. • Colaborar com outros profissionais de análise para fornecer insights acionáveis. • Participar de reuniões de definição e planejamento. • Acompanhar e aplicar boas práticas e padronizações. • Monitorar e otimizar o desempenho dos sistemas de dados. • Contribuir para o design e arquitetura do projeto e sugerir melhorias. • Auxiliar e orientar desenvolvedores júnior quando necessário.
• Conhecimento Intermediário em Databricks. • Conhecimento de ferramentas Azure (Azure Data Factory, Azure Databricks, ADLS, Eventhub, etc.). • Habilidades de programação em Python e Parquet. • Compreensão, conceito e proposição de Governança de Dados e Domínio de Dados. • Entendimento das zonas de Data Lake Bronze, Silver e Gold. • Proficiência em bancos de dados relacionais e não relacionais (SQL e NoSQL). • Capacidade de aprender e seguir padrões de trabalho (DevOps). • Capacidade de identificar problemas e promover sua resolução. • Autonomia para desenvolver atividades desde o entendimento até a implementação. • Conhecer processos streaming com Event Hub e streaming dentro do Delta Live Tables. • Desejável: Conhecer sobre contábil e previdência. • Desejável: Certificações Azure (por exemplo, Microsoft Certified: Azure Data Engineer Associate). • Desejável: Certificação Databricks de nível médio ou avançado (Data Engineer Associate ou Professional). • Desejável: Bom conhecimento com bancos de dados NoSQL, como Cassandra, Cosmos, etc. • Desejável: Proficiência em plataformas de streaming de eventos, como Eventhubs, Kafka. • Soft skills: Contribuir no design e arquitetura do projeto, trabalhar em equipe, orientar desenvolvedores júnior, conhecimento avançado em linguagens de programação e/ou tecnologias, independência e boa comunicação.
• Cartão multi-benefícios – você escolhe como e onde utilizar. • Bolsas de Estudos para cursos de Graduação, Pós, MBA e Idiomas. • Programas de incentivo à Certificações. • Horário de trabalho flexível. • Salários competitivos. • Avaliação de desempenho anual com plano de carreira estruturado. • Possibilidade de carreira internacional. • Wellhub e TotalPass. • Previdência Privada. • Auxílio-Creche. • Assistência Médica. • Assistência Odontológica. • Seguro de Vida.
Apply NowAugust 16
Keyrus Data Integration remote Senior Data Engineer (GCP) focusing on BigQuery; lead pipelines, governance and ETL/ELT.
🗣️🇧🇷🇵🇹 Portuguese Required
August 13
11 - 50
DATA HACKERS na Econodata, startup de IA e Big Data, desenvolvendo dados para web crawling. Constrói pipelines com SQL/NoSQL, Elasticsearch, Airflow, Python, Kubernetes e Docker.
🗣️🇧🇷🇵🇹 Portuguese Required
August 12
11 - 50
Data Engineer pleno na Econodata, startup de IA e Big Data para inteligência de vendas. Desenvolve robôs de dados, pipelines de aquisição e otimização de infra.
🗣️🇧🇷🇵🇹 Portuguese Required
August 9
Remote Senior Data Engineer at RunTalent; data modeling, Teradata, ODI, PowerBI desirable.
🗣️🇧🇷🇵🇹 Portuguese Required
August 9
Engenheiro de Dados para trabalho remoto na Ultracon TI. Local de trabalho: Sao Paulo (100% remoto); início imediato.
🗣️🇧🇷🇵🇹 Portuguese Required