
API • Artificial Intelligence • Cloud Solutions
A Leega é uma provedora líder de soluções de tecnologia na América Latina, especializada em analytics de dados e soluções em nuvem. Primeira empresa na região certificada pelo Google Cloud em Data Analytics, a Leega oferece um portfólio de serviços que inclui desenvolvimento de aplicações, machine learning e analytics para gestão de riscos. A empresa faz parcerias com os principais provedores de nuvem, como AWS e Microsoft Azure, para ajudar as empresas a aprimorar a gestão de dados e realizar uma migração eficiente para a nuvem, impulsionando a transformação digital e a inovação.
201 - 500 funcionários
Fundada em 2010
🔌 API
🤖 Inteligência Artificial
Setembro 30
🗣️🇧🇷🇵🇹 Português obrigatório
Apache
BigQuery
Cloud
ETL
Google Cloud Platform
Hadoop
Java
PySpark
Python
Scala
Shell Scripting
Spark
SQL
Terraform

API • Artificial Intelligence • Cloud Solutions
A Leega é uma provedora líder de soluções de tecnologia na América Latina, especializada em analytics de dados e soluções em nuvem. Primeira empresa na região certificada pelo Google Cloud em Data Analytics, a Leega oferece um portfólio de serviços que inclui desenvolvimento de aplicações, machine learning e analytics para gestão de riscos. A empresa faz parcerias com os principais provedores de nuvem, como AWS e Microsoft Azure, para ajudar as empresas a aprimorar a gestão de dados e realizar uma migração eficiente para a nuvem, impulsionando a transformação digital e a inovação.
201 - 500 funcionários
Fundada em 2010
🔌 API
🤖 Inteligência Artificial
• Avaliar arquitetura e requisitos do DW SAS existente e mapear dados, transformações e processos para o GCP • Definir estratégia de migração (full load, incremental, CDC) e elaborar plano de arquitetura de dados no GCP • Projetar esquemas de tabelas no BigQuery, definir particionamento e clustering e modelar zonas de dados no Cloud Storage (Bronze/Silver/Gold) • Desenvolver pipelines ELT/ETL usando Dataproc (Spark) ou Dataflow e traduzir lógica SAS para o ambiente GCP • Implementar validação e qualidade de dados • Provisionar e gerenciar infraestrutura com IaC (Terraform) e otimizar clusters Dataproc • Gerenciar redes, segurança (IAM) e acessos no GCP • Otimizar performance e custo (consultas BigQuery, jobs Spark, uso de recursos GCP) • Implementar segurança e governança de dados, aplicar políticas de IAM e garantir conformidade • Monitorar, solucionar problemas e dar suporte a pipelines e recursos no GCP • Documentar arquitetura, pipelines, modelos de dados e procedimentos operacionais • Comunicar-se com a equipe e stakeholders, garantindo alinhamento entre arquitetura e desenvolvimento • Atuar com Jira e metodologias ágeis
• Profundo conhecimento em BigQuery (modelagem, otimização de consultas, particionamento, clustering, cargas streaming e batch, segurança e governança) • Experiência com Cloud Storage (gerenciamento de buckets, classes de armazenamento, políticas de ciclo de vida, IAM) • Experiência com Dataproc (provisionamento, configuração e gestão de clusters Spark/Hadoop, otimização de jobs) • Conhecimento em Dataflow, Composer e Cloud Functions para orquestração e processamento de pipelines ELT/ETL • Implementação de Cloud IAM e políticas de segurança • Conhecimento de VPC, redes, sub-redes, regras de firewall e segurança na nuvem • Experiência com SAS Data Warehouse e linguagem SAS; habilidade para ler, entender e traduzir código SAS • Desejável conhecimento em SAS DI Studio e SAS Enterprise Guide • Experiência em processamento distribuído e Big Data, especialmente Apache Spark (Scala, Python ou Java) • Domínio avançado de SQL • Proficiência em Python e PySpark • Shell scripting para automação • Experiência com controle de versão (Git/GitHub/Bitbucket) • Conhecimento em modelagem dimensional e conceitos de DW/BI • Familiaridade com Jira e metodologias ágeis
• Convênio Médico Porto Seguro • Convênio Odontológico Porto Seguro • Participação nos Lucros e Resultados (PLR) • Auxílio Creche • Vale Alimentação e Refeição Alelo • Auxílio Home Office • Parcerias com Instituições de Ensino (descontos em cursos e graduações) • Incentivo para Certificações, inclusive em Cloud • Pontos Livelo • TotalPass (desconto em planos de academia) • Mindself (meditação e mindfulness)
Candidatar-seSetembro 30
Construir e manter pipelines de dados e plataformas em nuvem para a plataforma Data & AI da Dadosfera; liderar projetos com clientes e projetar arquiteturas de dados escaláveis.
🇧🇷 Brasil – Remoto
💰 $1.800.000 Seed Round em 2022-06
⏰ Tempo Integral
🟡 Pleno
🟠 Sênior
🚰 Engenheiro de Dados
🗣️🇺🇸🇬🇧 Inglês obrigatório
Setembro 28
Construir plataforma de dados, APIs e MLOps para a Experian Brasil; integrar pipelines batch e em tempo real e colaborar com times de negócio e tecnologia.
🗣️🇧🇷🇵🇹 Português obrigatório
Setembro 25
Engenheiro de Dados Pleno construindo e operando plataformas analíticas baseadas em AWS para a Compass UOL. Desenvolver ETL, modelos de dados, automação e garantir governança da informação.
Setembro 25
Engenheiro de Dados Pleno (AWS) na Genesis Dataculture. Implementar ingestão, processamento e disponibilização de dados usando AWS, Python e Terraform.
🗣️🇧🇷🇵🇹 Português obrigatório
Setembro 25
Desenvolver pipelines de dados escaláveis em Scala e Spark, implementar a arquitetura medalhão (bronze, silver, gold) para lakehouse e otimizar fluxos de trabalho em produção na Serasa Experian, datatech brasileira.
🗣️🇺🇸🇬🇧 Inglês obrigatório
🗣️🇧🇷🇵🇹 Português obrigatório