
Cybersecurity • Compliance • SaaS
GFT Technologies é uma empresa líder em tecnologia e transformação digital que se especializa em fornecer soluções avançadas para gestão de consentimento e conformidade com privacidade de dados. Seu produto principal, o Cookiebot, permite que as empresas automatizem a coleta de consentimento dos usuários de forma eficiente, garantindo a conformidade com regulamentações de privacidade complexas, como GDPR e CCPA. As soluções da GFT possibilitam integração perfeita às infraestruturas digitais existentes, ajudando mais de 600. 000 clientes globalmente a gerenciar dados de usuários com transparência e segurança.
10.000+ funcionários
Fundada em 1987
🔒 Cibersegurança
📋 Conformidade
☁️ SaaS
Agosto 20
🗣️🇧🇷🇵🇹 Português obrigatório

Cybersecurity • Compliance • SaaS
GFT Technologies é uma empresa líder em tecnologia e transformação digital que se especializa em fornecer soluções avançadas para gestão de consentimento e conformidade com privacidade de dados. Seu produto principal, o Cookiebot, permite que as empresas automatizem a coleta de consentimento dos usuários de forma eficiente, garantindo a conformidade com regulamentações de privacidade complexas, como GDPR e CCPA. As soluções da GFT possibilitam integração perfeita às infraestruturas digitais existentes, ajudando mais de 600. 000 clientes globalmente a gerenciar dados de usuários com transparência e segurança.
10.000+ funcionários
Fundada em 1987
🔒 Cibersegurança
📋 Conformidade
☁️ SaaS
• Projetar, implementar e otimizar pipelines de ingestão e processamento de dados (Data Ingestion e Data Stream) utilizando Python, PySpark, SQL, Scala e Shell Script • Desenvolver soluções para processamento paralelo e massivo de grandes volumes de dados • Projetar e implementar arquiteturas de dados baseadas em DataMesh, seguindo os princípios de ETL vs ELT e modelagens tradicionais, dimensionais ou híbridas • Organizar os dados em camadas estruturadas, como Dados Brutos (SOR), Dados Harmonizados (SOT) e Dados Especializados (SPEC) • Trabalhar com ecossistemas de Hadoop e processamento distribuído • Implementar soluções que atendam a requisitos de alta disponibilidade, escalabilidade e desempenho • Garantir conformidade com normas de privacidade e segurança no armazenamento, processamento e compartilhamento de dados • Implementar controles e políticas para proteger dados sensíveis e assegurar o uso ético da informação • Criar e manter pipelines de CI/CD utilizando CodePipeline e GitHub Actions para automação de deploy e integração de código • Monitorar e otimizar pipelines de dados em ambientes dinâmicos e distribuídos • Trabalhar com os principais serviços da AWS, como Storage Gateway, Direct Connect, DMS, Lambda, Glue, RDS e API Gateway, para criar e gerenciar soluções baseadas em cloud • Garantir a integração perfeita de dados em diferentes ambientes utilizando serviços de armazenamento e processamento • Construir soluções para Data Analytics, incluindo visualização e storytelling de dados • Colaborar com equipes de negócio para entregar dashboards e relatórios • Participar de equipes multidisciplinares em um ambiente ágil, aplicando boas práticas de engenharia de software e metodologias ágeis (Scrum/Kanban)
• Profissional de nível Sênior que atue com (BI/AWS). • Projetar, implementar e otimizar pipelines de ingestão e processamento de dados (Data Ingestion e Data Stream) utilizando Python, PySpark, SQL, Scala e Shell Script • Desenvolver soluções para processamento paralelo e massivo de grandes volumes de dados • Projetar e implementar arquiteturas de dados baseadas em DataMesh, seguindo os princípios de ETL vs ELT e modelagens tradicionais, dimensionais ou híbridas • Organizar os dados em camadas estruturadas, como Dados Brutos (SOR), Dados Harmonizados (SOT) e Dados Especializados (SPEC) • Trabalho com ecossistemas de Hadoop e processamento distribuído • Implementar soluções que atendam a requisitos de alta disponibilidade, escalabilidade e desempenho • Garantir conformidade com normas de privacidade e segurança no armazenamento, processamento e compartilhamento de dados • Implementar controles e políticas para proteger dados sensíveis e assegurar o uso ético da informação • Criar e manter pipelines de CI/CD utilizando CodePipeline e GitHub Actions para automação de deploy e integração de código • Monitorar e otimizar pipelines de dados em ambientes dinâmicos e distribuídos • Trabalhar com os principais serviços da AWS: Storage Gateway, Direct Connect, DMS, Lambda, Glue, RDS e API Gateway
• Cartão multi-benefícios – você escolhe como e onde utilizar. • Bolsas de Estudos para cursos de Graduação, Pós, MBA e Idiomas. • Programas de incentivo à Certificações. • Horário de trabalho flexível. • Salários competitivos. • Avaliação de desempenho anual com plano de carreira estruturado. • Possibilidade de carreira internacional. • Wellhub e TotalPass. • Previdência Privada. • Auxílio-Creche. • Assistência Médica. • Assistência Odontológica. • Seguro de Vida. • #VemPraGFT.
Candidatar-seJulho 4
A Oowlish procura um Analista de Dados para transformar dados em insights de negócio impactantes. Junte-se a uma equipe de desenvolvimento de software em rápido crescimento na América Latina.
🗣️🇺🇸🇬🇧 Inglês obrigatório
Abril 26
Cargo remoto de Analista de Dados Sênior focado em soluções de dados e em gerar insights para suporte à tomada de decisão.
🗣️🇺🇸🇬🇧 Inglês obrigatório
🗣️🇧🇷🇵🇹 Português obrigatório
Abril 24
Faça parte da Montreal como Analista de Dados Sênior e contribua para soluções tecnológicas inovadoras.
🗣️🇧🇷🇵🇹 Português obrigatório