
Cybersecurity • Compliance • SaaS
GFT Technologies is a leading technology and digital transformation company that specializes in providing advanced solutions for consent management and data privacy compliance. Their flagship product, Cookiebot, enables businesses to automate user consent collection efficiently, ensuring adherence to complex privacy regulations such as GDPR and CCPA. GFT's solutions facilitate seamless integration into existing digital infrastructures, helping over 600,000 customers globally manage user data transparently and securely.
September 10
🗣️🇧🇷🇵🇹 Portuguese Required

Cybersecurity • Compliance • SaaS
GFT Technologies is a leading technology and digital transformation company that specializes in providing advanced solutions for consent management and data privacy compliance. Their flagship product, Cookiebot, enables businesses to automate user consent collection efficiently, ensuring adherence to complex privacy regulations such as GDPR and CCPA. GFT's solutions facilitate seamless integration into existing digital infrastructures, helping over 600,000 customers globally manage user data transparently and securely.
• Projetar e desenvolver pipelines de dados escaláveis utilizando serviços AWS, como S3, Glue, Athena, Redshift, Lambda e EMR. • Implementar soluções de ingestão, transformação e modelagem de dados com foco em alta performance e segurança. • Trabalhar em colaboração com equipes de negócios e ciência de dados para traduzir requisitos em soluções técnicas eficientes. • Monitorar, otimizar e garantir a qualidade dos dados nos pipelines e sistemas. • Aplicar práticas de DevOps em soluções de dados, utilizando CI/CD e automação. • Garantir conformidade com regulamentações e melhores práticas de governança de dados.
• Experiência avançada em AWS e seus principais serviços para engenharia de dados (S3, Glue, Lambda, Redshift, DynamoDB, Athena, etc.) • Domínio de linguagens de programação como Python para manipulação e processamento de dados • Conhecimento de ferramentas de orquestração de dados, como Apache Airflow ou AWS Step Functions • Experiência em banco de dados relacional e não relacional (PostgreSQL, MongoDB, DynamoDB) • Familiaridade com boas práticas de segurança em ambientes AWS (IAM, KMS, criptografia de dados) • Experiência em soluções de streaming de dados (Kafka, Kinesis) • Conhecimento em controle de versão e pipelines de CI/CD utilizando ferramentas como GitHub, Jenkins, ou CodePipeline • Diferencial: Certificação AWS Certified Data Analytics ou AWS Certified Solutions Architect • Diferencial: Experiência em processamento de Big Data com Apache Spark • Diferencial: Vivência em ambientes com alta volumetria de dados • Descrição comportamental: gostar de trabalhar em equipe, coragem para se desafiar, transformar ideias em soluções criativas, habilidades de resolução de problemas, trabalhar de forma independente e gerenciar o próprio tempo
• Cartão multi-benefícios – você escolhe como e onde utilizar. • Bolsas de Estudos para cursos de Graduação, Pós, MBA e Idiomas. • Programas de incentivo à Certificações. • Horário de trabalho flexível. • Salários competitivos. • Avaliação de desempenho anual com plano de carreira estruturado. • Possibilidade de carreira internacional. • Wellhub e TotalPass. • Previdência Privada. • Auxílio-Creche. • Assistência Médica. • Assistência Odontológica. • Seguro de Vida.
Apply NowSeptember 10
Amazon Redshift
AWS
DynamoDB
Oracle
Pandas
PySpark
Python
Spark
SQL
September 8
Senior Data Engineer building scalable data platforms and pipelines at Neon fintech. Collaborating with product and engineering teams to ensure data platform stability and observability.
🗣️🇧🇷🇵🇹 Portuguese Required
Apache
Spark
September 7
Senior Data Engineer at RunTalent building Azure data lakehouse pipelines. Designs, deploys and secures scalable ETL and analytics platforms.
🗣️🇧🇷🇵🇹 Portuguese Required
Azure
Node.js
PySpark
Python
SQL
September 4
Delivery Consultant Data Architect designing and implementing AWS-based data solutions for a major financial client at CI&T
🗣️🇧🇷🇵🇹 Portuguese Required
AWS
EC2
Kafka
NoSQL
PySpark
Python
Spark
SQL
Terraform
September 4
Build and optimize Azure ETL/ELT pipelines using ADF, Databricks and Airflow. Collaborate with Data Science and Analytics teams to deliver scalable data solutions.
🗣️🇧🇷🇵🇹 Portuguese Required
Airflow
Azure
ETL
Kafka
PySpark
Python
Spark
SQL