Engenheiro de Dados Sênior (SAS e GCP)

Vaga não está no LinkedIn

Setembro 30

🗣️🇧🇷🇵🇹 Português obrigatório

Candidatar-se
Logo of Leega

Leega

API • Artificial Intelligence • Cloud Solutions

A Leega é uma provedora líder de soluções de tecnologia na América Latina, especializada em analytics de dados e soluções em nuvem. Primeira empresa na região certificada pelo Google Cloud em Data Analytics, a Leega oferece um portfólio de serviços que inclui desenvolvimento de aplicações, machine learning e analytics para gestão de riscos. A empresa faz parcerias com os principais provedores de nuvem, como AWS e Microsoft Azure, para ajudar as empresas a aprimorar a gestão de dados e realizar uma migração eficiente para a nuvem, impulsionando a transformação digital e a inovação.

201 - 500 funcionários

Fundada em 2010

🔌 API

🤖 Inteligência Artificial

Descrição

• Avaliar arquitetura e requisitos do DW SAS existente e mapear dados, transformações e processos para o GCP • Definir estratégia de migração (full load, incremental, CDC) e elaborar plano de arquitetura de dados no GCP • Projetar esquemas de tabelas no BigQuery, definir particionamento e clustering e modelar zonas de dados no Cloud Storage (Bronze/Silver/Gold) • Desenvolver pipelines ELT/ETL usando Dataproc (Spark) ou Dataflow e traduzir lógica SAS para o ambiente GCP • Implementar validação e qualidade de dados • Provisionar e gerenciar infraestrutura com IaC (Terraform) e otimizar clusters Dataproc • Gerenciar redes, segurança (IAM) e acessos no GCP • Otimizar performance e custo (consultas BigQuery, jobs Spark, uso de recursos GCP) • Implementar segurança e governança de dados, aplicar políticas de IAM e garantir conformidade • Monitorar, solucionar problemas e dar suporte a pipelines e recursos no GCP • Documentar arquitetura, pipelines, modelos de dados e procedimentos operacionais • Comunicar-se com a equipe e stakeholders, garantindo alinhamento entre arquitetura e desenvolvimento • Atuar com Jira e metodologias ágeis

🎯 Requisitos

• Profundo conhecimento em BigQuery (modelagem, otimização de consultas, particionamento, clustering, cargas streaming e batch, segurança e governança) • Experiência com Cloud Storage (gerenciamento de buckets, classes de armazenamento, políticas de ciclo de vida, IAM) • Experiência com Dataproc (provisionamento, configuração e gestão de clusters Spark/Hadoop, otimização de jobs) • Conhecimento em Dataflow, Composer e Cloud Functions para orquestração e processamento de pipelines ELT/ETL • Implementação de Cloud IAM e políticas de segurança • Conhecimento de VPC, redes, sub-redes, regras de firewall e segurança na nuvem • Experiência com SAS Data Warehouse e linguagem SAS; habilidade para ler, entender e traduzir código SAS • Desejável conhecimento em SAS DI Studio e SAS Enterprise Guide • Experiência em processamento distribuído e Big Data, especialmente Apache Spark (Scala, Python ou Java) • Domínio avançado de SQL • Proficiência em Python e PySpark • Shell scripting para automação • Experiência com controle de versão (Git/GitHub/Bitbucket) • Conhecimento em modelagem dimensional e conceitos de DW/BI • Familiaridade com Jira e metodologias ágeis

🏖️ Benefícios

• Convênio Médico Porto Seguro • Convênio Odontológico Porto Seguro • Participação nos Lucros e Resultados (PLR) • Auxílio Creche • Vale Alimentação e Refeição Alelo • Auxílio Home Office • Parcerias com Instituições de Ensino (descontos em cursos e graduações) • Incentivo para Certificações, inclusive em Cloud • Pontos Livelo • TotalPass (desconto em planos de academia) • Mindself (meditação e mindfulness)

Candidatar-se

Vagas Similares

Setembro 30

Dadosfera

51 - 200

🤖 Inteligência Artificial

☁️ SaaS

Construir e manter pipelines de dados e plataformas em nuvem para a plataforma Data & AI da Dadosfera; liderar projetos com clientes e projetar arquiteturas de dados escaláveis.

🇧🇷 Brasil – Remoto

💰 $1.800.000 Seed Round em 2022-06

⏰ Tempo Integral

🟡 Pleno

🟠 Sênior

🚰 Engenheiro de Dados

🗣️🇺🇸🇬🇧 Inglês obrigatório

Setembro 28

Experian

10001

🤖 Inteligência Artificial

🤝 B2B

☁️ SaaS

Construir plataforma de dados, APIs e MLOps para a Experian Brasil; integrar pipelines batch e em tempo real e colaborar com times de negócio e tecnologia.

🗣️🇧🇷🇵🇹 Português obrigatório

Setembro 25

Compass

10.000+ funcionários

🏠 Imobiliário

📱 Mídia

Engenheiro de Dados Pleno construindo e operando plataformas analíticas baseadas em AWS para a Compass UOL. Desenvolver ETL, modelos de dados, automação e garantir governança da informação.

Setembro 25

Genesis Data Culture

11 - 50

🤖 Inteligência Artificial

⚡ Energia

🤝 B2B

Engenheiro de Dados Pleno (AWS) na Genesis Dataculture. Implementar ingestão, processamento e disponibilização de dados usando AWS, Python e Terraform.

🗣️🇧🇷🇵🇹 Português obrigatório

Setembro 25

Experian

10001

🤖 Inteligência Artificial

🤝 B2B

☁️ SaaS

Desenvolver pipelines de dados escaláveis em Scala e Spark, implementar a arquitetura medalhão (bronze, silver, gold) para lakehouse e otimizar fluxos de trabalho em produção na Serasa Experian, datatech brasileira.

🗣️🇺🇸🇬🇧 Inglês obrigatório

🗣️🇧🇷🇵🇹 Português obrigatório

Desenvolvido por Lior Neu-ner. Adoraria receber seu feedback — entre em contato por DM ou pelo e-mail support@remoterocketship.com