Engenheiro de Dados Sênior, SAS e GCP

Job not on LinkedIn

September 30

🗣️🇧🇷🇵🇹 Portuguese Required

Apply Now
Logo of Leega

Leega

API • Artificial Intelligence • Cloud Solutions

Leega is a leading technology solutions provider in Latin America, specializing in data analytics and cloud solutions. As the first company in the region certified by Google Cloud for Data Analytics, Leega offers a range of services including application development, machine learning, and risk management analytics. The firm partners with major cloud services such as AWS and Microsoft Azure to help businesses enhance their data management and transition effectively to the cloud, ultimately driving digital transformation and innovation.

201 - 500 employees

Founded 2010

🔌 API

🤖 Artificial Intelligence

📋 Description

• Avaliar arquitetura e requisitos do DW SAS existente e mapear dados, transformações e processos para GCP • Definir estratégia de migração (full load, incremental, CDC) e elaborar plano de arquitetura de dados no GCP • Projetar esquemas de tabelas no BigQuery, definir particionamento e clustering e modelar zonas de dados no Cloud Storage (Bronze/Silver/Gold) • Desenvolver pipelines ELT/ETL usando Dataproc (Spark) ou Dataflow e traduzir lógica SAS para o ambiente GCP • Implementar validação e qualidade de dados • Provisionar e gerenciar infraestrutura com IaC (Terraform) e otimizar clusters Dataproc • Gerenciar redes, segurança (IAM) e acessos no GCP • Otimizar performance e custo (consultas BigQuery, jobs Spark, uso de recursos GCP) • Implementar segurança e governança de dados, aplicar políticas de IAM e garantir conformidade • Monitorar, solucionar problemas e dar suporte a pipelines e recursos GCP • Documentar arquitetura, pipelines, modelos de dados e procedimentos operacionais • Comunicar-se com equipe, stakeholders e garantir alinhamento entre arquitetura e desenvolvimento • Atuar com Jira e metodologias ágeis

🎯 Requirements

• Profundo conhecimento em BigQuery (modelagem, otimização de consultas, particionamento, clustering, cargas streaming e batch, segurança e governança) • Experiência com Cloud Storage (gerenciamento de buckets, classes de armazenamento, políticas de ciclo de vida, IAM) • Experiência com Dataproc (provisionamento, configuração e gestão de clusters Spark/Hadoop, otimização de jobs) • Conhecimento em Dataflow, Composer e Cloud Functions para orquestração e processamento de pipelines ELT/ETL • Implementação de Cloud IAM e políticas de segurança • Conhecimento de VPC, redes, sub-redes, regras de firewall e segurança na nuvem • Experiência com SAS Data Warehouse e linguagem SAS; habilidade para ler/entender e traduzir código SAS • Desejável conhecimento em SAS DI Studio e SAS Enterprise Guide • Experiência em processamento distribuído e Big Data, especialmente Apache Spark (Scala, Python ou Java) • Domínio avançado de SQL • Proficiência em Python e PySpark • Shell scripting para automação • Experiência com controle de versão (Git/GitHub/Bitbucket) • Conhecimento em modelagem dimensional e conceitos DW/BI • Familiaridade com Jira e metodologias ágeis

🏖️ Benefits

• Convênio Médico Porto Seguro • Convênio Odontológico Porto Seguro • Participação nos Lucros e Resultados (PLR) • Auxílio Creche • Vale Alimentação e Refeição Alelo • Auxílio Home Office • Parcerias com Instituições de Ensino (descontos em cursos e graduações) • Incentivo para Certificações, inclusive em Cloud • Pontos Livelo • TotalPass (desconto em planos de academia) • Mindself (meditação e mindfulness)

Apply Now

Similar Jobs

September 30

Dadosfera

51 - 200

🤖 Artificial Intelligence

☁️ SaaS

Build and maintain data pipelines and cloud platforms for Dadosfera's Data & AI platform; lead client projects and design scalable data architectures.

🇧🇷 Brazil – Remote

💰 $1.8M Seed Round on 2022-06

⏰ Full Time

🟡 Mid-level

🟠 Senior

🚰 Data Engineer

September 28

Experian

10001

🤖 Artificial Intelligence

🤝 B2B

☁️ SaaS

Build data platform, APIs and MLOps for Experian Brazil; integrate batch and real-time pipelines and collaborate with business and tech teams.

🇧🇷 Brazil – Remote

⏰ Full Time

🟡 Mid-level

🟠 Senior

🚰 Data Engineer

🗣️🇧🇷🇵🇹 Portuguese Required

September 25

Compass

10,000+ employees

🏠 Real Estate

📱 Media

🇧🇷 Brazil – Remote

⏰ Full Time

🟡 Mid-level

🟠 Senior

🚰 Data Engineer

September 25

Genesis Data Culture

11 - 50

🤖 Artificial Intelligence

⚡ Energy

🤝 B2B

Pleno Data Engineer (AWS) at Genesis Dataculture. Implement ingestion, processing and data availability using AWS, Python and Terraform.

🇧🇷 Brazil – Remote

💵 R$10k / month

⏰ Full Time

🟡 Mid-level

🟠 Senior

🚰 Data Engineer

🗣️🇧🇷🇵🇹 Portuguese Required

September 25

Experian

10001

🤖 Artificial Intelligence

🤝 B2B

☁️ SaaS

Develop scalable Scala and Spark data pipelines, implement medallion lakehouse architecture, and optimize production workflows at Serasa Experian, Brazilian datatech.

🇧🇷 Brazil – Remote

⏰ Full Time

🟡 Mid-level

🟠 Senior

🚰 Data Engineer

🗣️🇧🇷🇵🇹 Portuguese Required

Developed by Lior Neu-ner. I'd love to hear your feedback — Get in touch via DM or support@remoterocketship.com