
Cybersecurity • Compliance • SaaS
GFT Technologies é uma empresa líder em tecnologia e transformação digital que se especializa em fornecer soluções avançadas para gestão de consentimento e conformidade com privacidade de dados. Seu produto principal, o Cookiebot, permite que as empresas automatizem a coleta de consentimento dos usuários de forma eficiente, garantindo a conformidade com regulamentações de privacidade complexas, como GDPR e CCPA. As soluções da GFT possibilitam integração perfeita às infraestruturas digitais existentes, ajudando mais de 600. 000 clientes globalmente a gerenciar dados de usuários com transparência e segurança.
10.000+ funcionários
Fundada em 1987
🔒 Cibersegurança
📋 Conformidade
☁️ SaaS
Agosto 19
🗣️🇧🇷🇵🇹 Português obrigatório

Cybersecurity • Compliance • SaaS
GFT Technologies é uma empresa líder em tecnologia e transformação digital que se especializa em fornecer soluções avançadas para gestão de consentimento e conformidade com privacidade de dados. Seu produto principal, o Cookiebot, permite que as empresas automatizem a coleta de consentimento dos usuários de forma eficiente, garantindo a conformidade com regulamentações de privacidade complexas, como GDPR e CCPA. As soluções da GFT possibilitam integração perfeita às infraestruturas digitais existentes, ajudando mais de 600. 000 clientes globalmente a gerenciar dados de usuários com transparência e segurança.
10.000+ funcionários
Fundada em 1987
🔒 Cibersegurança
📋 Conformidade
☁️ SaaS
• Coletar, limpar e transformar dados brutos em formatos utilizáveis para análise. • Desenvolver e manter pipelines de dados eficientes e escaláveis. • Gerenciar, modelar e utilizar bancos de dados relacionais (SQL), não relacionais (NoSQL) e data warehouses. • Colaborar com outros profissionais de análise para fornecer insights acionáveis. • Participar de reuniões de definição e planejamento. • Acompanhar e aplicar boas práticas e padronizações. • Monitorar e otimizar o desempenho dos sistemas de dados. • Contribuir para o design e arquitetura do projeto e sugerir melhorias. • Auxiliar e orientar desenvolvedores júnior quando necessário.
• Conhecimento Intermediário em Databricks. • Conhecimento de ferramentas Azure (Azure Data Factory, Azure Databricks, ADLS, Eventhub, etc.). • Habilidades de programação em Python e Parquet. • Compreensão, conceito e proposição de Governança de Dados e Domínio de Dados. • Entendimento das zonas de Data Lake Bronze, Silver e Gold. • Proficiência em bancos de dados relacionais e não relacionais (SQL e NoSQL). • Capacidade de aprender e seguir padrões de trabalho (DevOps). • Capacidade de identificar problemas e promover sua resolução. • Autonomia para desenvolver atividades desde o entendimento até a implementação. • Conhecer processos streaming com Event Hub e streaming dentro do Delta Live Tables. • Desejável: Conhecer sobre contábil e previdência. • Desejável: Certificações Azure (por exemplo, Microsoft Certified: Azure Data Engineer Associate). • Desejável: Certificação Databricks de nível médio ou avançado (Data Engineer Associate ou Professional). • Desejável: Bom conhecimento com bancos de dados NoSQL, como Cassandra, Cosmos, etc. • Desejável: Proficiência em plataformas de streaming de eventos, como Eventhubs, Kafka. • Soft skills: Contribuir no design e arquitetura do projeto, trabalhar em equipe, orientar desenvolvedores júnior, conhecimento avançado em linguagens de programação e/ou tecnologias, independência e boa comunicação.
• Cartão multi-benefícios – você escolhe como e onde utilizar. • Bolsas de Estudos para cursos de Graduação, Pós, MBA e Idiomas. • Programas de incentivo à Certificações. • Horário de trabalho flexível. • Salários competitivos. • Avaliação de desempenho anual com plano de carreira estruturado. • Possibilidade de carreira internacional. • Wellhub e TotalPass. • Previdência Privada. • Auxílio-Creche. • Assistência Médica. • Assistência Odontológica. • Seguro de Vida.
Candidatar-seAgosto 16
Keyrus Data Integration — Engenheiro de Dados Sênior (GCP) remoto com foco em BigQuery; liderar pipelines, governança e processos de ETL/ELT.
🗣️🇧🇷🇵🇹 Português obrigatório
Agosto 13
11 - 50
DATA HACKERS na Econodata, startup de IA e Big Data, desenvolvendo dados para web crawling. Constrói pipelines com SQL/NoSQL, Elasticsearch, Airflow, Python, Kubernetes e Docker.
🗣️🇧🇷🇵🇹 Português obrigatório
Agosto 12
11 - 50
Data Engineer pleno na Econodata, startup de IA e Big Data para inteligência de vendas. Desenvolve robôs de dados, pipelines de aquisição e otimização de infra.
🗣️🇧🇷🇵🇹 Português obrigatório
Agosto 9
Engenheiro de Dados Sênior remoto na RunTalent; modelagem de dados, Teradata, ODI; conhecimento em Power BI desejável.
🗣️🇧🇷🇵🇹 Português obrigatório
Agosto 9
Engenheiro de Dados para trabalho remoto na Ultracon TI. Local de trabalho: São Paulo (100% remoto); início imediato.
🗣️🇧🇷🇵🇹 Português obrigatório