
Cybersecurity • Compliance • SaaS
GFT Technologies é uma empresa líder em tecnologia e transformação digital que se especializa em fornecer soluções avançadas para gestão de consentimento e conformidade com privacidade de dados. Seu produto principal, o Cookiebot, permite que as empresas automatizem a coleta de consentimento dos usuários de forma eficiente, garantindo a conformidade com regulamentações de privacidade complexas, como GDPR e CCPA. As soluções da GFT possibilitam integração perfeita às infraestruturas digitais existentes, ajudando mais de 600. 000 clientes globalmente a gerenciar dados de usuários com transparência e segurança.
10.000+ funcionários
Fundada em 1987
🔒 Cibersegurança
📋 Conformidade
☁️ SaaS
Novembro 7
🗣️🇧🇷🇵🇹 Português obrigatório
Airflow
Amazon Redshift
AWS
Azure
BigQuery
Cloud
Google Cloud Platform
GraphQL
Java
Kafka
Prometheus
Python
Scala
SQL
Terraform

Cybersecurity • Compliance • SaaS
GFT Technologies é uma empresa líder em tecnologia e transformação digital que se especializa em fornecer soluções avançadas para gestão de consentimento e conformidade com privacidade de dados. Seu produto principal, o Cookiebot, permite que as empresas automatizem a coleta de consentimento dos usuários de forma eficiente, garantindo a conformidade com regulamentações de privacidade complexas, como GDPR e CCPA. As soluções da GFT possibilitam integração perfeita às infraestruturas digitais existentes, ajudando mais de 600. 000 clientes globalmente a gerenciar dados de usuários com transparência e segurança.
10.000+ funcionários
Fundada em 1987
🔒 Cibersegurança
📋 Conformidade
☁️ SaaS
• Liderar a ingestão e integração de dados de múltiplas fontes (core bancário, bureaus de crédito, meios de pagamento, CRM, canais digitais) para a FICO Platform (ex.: Data Management, Decision Modeler, Strategy/Decision Flow), utilizando APIs, streaming (Kafka), CDC e processamento batch; • Desenhar e implementar a modelagem de dados e a arquitetura para decisioning (camadas raw/curated/serving; schemas para features, regras e inputs de score; event sourcing) e estabelecer data contracts com squads de produto; • Desenvolver pipelines de dados de baixa latência para decisões em tempo real (sub-100 ms/sub-segundo, quando aplicável) e pipelines analíticos robustos para processamento em lote (treino e refresh de modelos, relatórios regulatórios); • Implementar e gerenciar estratégias de data quality e observabilidade end-to-end (validações sintáticas/semânticas, SLIs/SLOs, data drift/feature drift), além de estabelecer catálogo e linhagem de dados (ex.: Collibra/Purview/Atlan) e gestão de metadados para explicabilidade (audit trails); • Garantir a aplicação de políticas de acesso (IAM, RBAC/ABAC), proteção de dados sensíveis (PII/PCI), conformidade regulatória (LGPD, PCI-DSS), criptografia, mascaramento/tokenização e segregação de ambientes; • Provisionar camadas de serving para motores de decisão FICO (regras/estratégias), MLOps/feature store para modelos de risco/fraude/propensão; integrar com canais de consumo (APIs REST/GraphQL) e orquestrar/versionar decisões; • Atuar em colaboração com times de Risco/Analytics, Fraude, Marketing, TI e parceiros FICO; assegurar a sustentação operacional dos pipelines (SLA/SLO), gerenciar incidentes e promover a melhoria contínua; • Aplicar princípios de DevOps/DataOps, incluindo versionamento (Git), CI/CD (Azure DevOps/GitHub Actions), infraestrutura como código (Terraform), testes automatizados, promoção entre ambientes e gestão de custos (FinOps).
• Formação superior completa em Computação, Engenharias, Sistemas de Informação ou áreas correlatas; • Pós-graduação ou MBA é um diferencial; • Experiência sólida de 5 a 8 anos em engenharia de dados, com vivência comprovada na FICO Platform (Decision Management/Decision Modeler/Blaze Advisor, Decision Flows/Strategies) ou soluções correlatas (Falcon, TRIAD, Customer Dialogue Manager); • Domínio de integração de dados via APIs REST, mensageria (Kafka) e Change Data Capture (CDC); • Proficiência em SQL avançado e programação (Python/Scala/Java); • Conhecimento em plataformas de cloud (AWS, Azure ou GCP), data lakes/warehouses (Delta Lake/Lakehouse, Snowflake, BigQuery, Synapse/Redshift) e orquestradores (Airflow/ADF/Composer); • Experiência com governança, qualidade e segurança de dados (LGPD/PCI-DSS, PII), ferramentas de catálogo/linhagem e monitoramento (Datadog, Prometheus, Monte Carlo).
• Cartão multi-benefícios – você escolhe como e onde utilizar. • Bolsas de Estudos para cursos de Graduação, Pós, MBA e Idiomas. • Programas de incentivo à Certificações. • Horário de trabalho flexível. • Salários competitivos. • Avaliação de desempenho anual com plano de carreira estruturado. • Possibilidade de carreira internacional. • Wellhub e TotalPass. • Previdência Privada. • Auxílio-Creche. • Assistência Médica. • Assistência Odontológica. • Seguro de Vida.
Candidatar-se