
Cybersecurity • Compliance • SaaS
GFT Technologies is a leading technology and digital transformation company that specializes in providing advanced solutions for consent management and data privacy compliance. Their flagship product, Cookiebot, enables businesses to automate user consent collection efficiently, ensuring adherence to complex privacy regulations such as GDPR and CCPA. GFT's solutions facilitate seamless integration into existing digital infrastructures, helping over 600,000 customers globally manage user data transparently and securely.
September 15
🗣️🇧🇷🇵🇹 Portuguese Required

Cybersecurity • Compliance • SaaS
GFT Technologies is a leading technology and digital transformation company that specializes in providing advanced solutions for consent management and data privacy compliance. Their flagship product, Cookiebot, enables businesses to automate user consent collection efficiently, ensuring adherence to complex privacy regulations such as GDPR and CCPA. GFT's solutions facilitate seamless integration into existing digital infrastructures, helping over 600,000 customers globally manage user data transparently and securely.
• Atuar como Engenheiro de Dados Sênior desenvolvendo soluções de coleta, transformação e carga de dados. • Projetar e implementar pipelines ETL/ELT usando ferramentas Big Data e PySpark/SparkSQL. • Trabalhar com grandes volumes de dados e modelagem de Data Warehouse (STAR, Snowflake, etc.). • Implementar ingestão de dados em batch e realtime e arquiteturas de data mesh. • Utilizar serviços AWS (EMR, Lambda, Glue, Athena, Step Functions) para processamento e orquestração de dados. • Colaborar com times, transformar ideias em soluções, resolver problemas e gerenciar prioridades de forma independente. • Contribuir para qualidade, observabilidade e possíveis integrações com NoSQL e ferramentas de monitoramento.
• Profissional de nível Sênior atuando com dados. • Experiência em coleta, transformação e carga de dados (ferramentas de ETL). • Experiência com ferramentas de Big Data (Hadoop, Spark, etc.). • Experiência em trabalhar com grandes volumes de dados. • Modelagem de Banco de Dados (SQL, DATA WAREHOUSE, STAR SCHEMA, SNOWFLAKE, etc.). • Conhecimento avançado em SQL. • Conhecimento em linguagens de programação Python (PySpark, SparkSQL). • Conhecimento em bancos NoSQL (MongoDB, DynamoDB). • Conhecimento em ambientes de dados descentralizados (Data mesh). • Ingestão de dados em Batch e Realtime. • Experiência com serviços de nuvem AWS (MANDATÓRIO): AWS EMR, AWS Lambda, AWS Glue (Crawlers, Jobs, workflow), AWS Athena, AWS Step Functions. • Desejável: AWS QuickSight; DataDog ou outra ferramenta de observabilidade; Kinesis; Terraform. • Competências comportamentais: trabalho em equipe, colaborativo, coragem para se desafiar, criatividade, busca por qualidade, habilidades de resolução de problemas, autonomia e gestão do próprio tempo.
• Cartão multi-benefícios – você escolhe como e onde utilizar. • Bolsas de Estudos para cursos de Graduação, Pós, MBA e Idiomas. • Programas de incentivo à Certificações. • Horário de trabalho flexível. • Salários competitivos. • Avaliação de desempenho anual com plano de carreira estruturado. • Possibilidade de carreira internacional. • Wellhub e TotalPass. • Previdência Privada. • Auxílio-Creche. • Assistência Médica. • Assistência Odontológica. • Seguro de Vida.
Apply NowSeptember 10
Amazon Redshift
AWS
DynamoDB
Oracle
Pandas
PySpark
Python
Spark
SQL
September 8
Senior Data Engineer building scalable data platforms and pipelines at Neon fintech. Collaborating with product and engineering teams to ensure data platform stability and observability.
🗣️🇧🇷🇵🇹 Portuguese Required
Apache
Spark
September 7
Senior Data Engineer at RunTalent building Azure data lakehouse pipelines. Designs, deploys and secures scalable ETL and analytics platforms.
🗣️🇧🇷🇵🇹 Portuguese Required
Azure
Node.js
PySpark
Python
SQL
September 4
Delivery Consultant Data Architect designing and implementing AWS-based data solutions for a major financial client at CI&T
🗣️🇧🇷🇵🇹 Portuguese Required
AWS
EC2
Kafka
NoSQL
PySpark
Python
Spark
SQL
Terraform
September 4
Build and optimize Azure ETL/ELT pipelines using ADF, Databricks and Airflow. Collaborate with Data Science and Analytics teams to deliver scalable data solutions.
🗣️🇧🇷🇵🇹 Portuguese Required
Airflow
Azure
ETL
Kafka
PySpark
Python
Spark
SQL