
API • Artificial Intelligence • Cloud Solutions
A Leega é uma provedora líder de soluções de tecnologia na América Latina, especializada em analytics de dados e soluções em nuvem. Primeira empresa na região certificada pelo Google Cloud em Data Analytics, a Leega oferece um portfólio de serviços que inclui desenvolvimento de aplicações, machine learning e analytics para gestão de riscos. A empresa faz parcerias com os principais provedores de nuvem, como AWS e Microsoft Azure, para ajudar as empresas a aprimorar a gestão de dados e realizar uma migração eficiente para a nuvem, impulsionando a transformação digital e a inovação.
201 - 500 funcionários
Fundada em 2010
🔌 API
🤖 Inteligência Artificial
Outubro 27
🗣️🇧🇷🇵🇹 Português obrigatório

API • Artificial Intelligence • Cloud Solutions
A Leega é uma provedora líder de soluções de tecnologia na América Latina, especializada em analytics de dados e soluções em nuvem. Primeira empresa na região certificada pelo Google Cloud em Data Analytics, a Leega oferece um portfólio de serviços que inclui desenvolvimento de aplicações, machine learning e analytics para gestão de riscos. A empresa faz parcerias com os principais provedores de nuvem, como AWS e Microsoft Azure, para ajudar as empresas a aprimorar a gestão de dados e realizar uma migração eficiente para a nuvem, impulsionando a transformação digital e a inovação.
201 - 500 funcionários
Fundada em 2010
🔌 API
🤖 Inteligência Artificial
• Desenvolver pipelines de dados utilizando AWS Glue, S3 e Lambda, estruturando dados de diferentes sistemas operacionais e sensores ferroviários. • Criar e manter pipelines modulares em Kedro, assegurando rastreabilidade, versionamento e reprodutibilidade dos fluxos analíticos. • Preparar, padronizar e transmitir dados operacionais a órgãos regulatórios via API, garantindo compliance e integridade das informações. • Integrar e transformar dados para uso em modelos de machine learning no AWS SageMaker, conectando resultados analíticos às áreas de negócio. • Implementar boas práticas de DataOps, CI/CD e versionamento com Git para pipelines analíticos. • Projetar e otimizar modelos dimensionais voltados à performance operacional, transit time, produtividade e capacidade da via. • Apoiar times de Data Science e Planejamento Operacional com dados consistentes e de alta disponibilidade para análises preditivas e prescritivas. • Garantir a governança e a qualidade dos dados críticos da operação ferroviária.
• Domínio em SQL e experiência com Python (Pandas, PySpark, boto3). • Experiência comprovada em AWS Glue, SageMaker, S3, Lambda e API Gateway. • Vivência com Kedro para desenvolvimento de pipelines analíticos. • Conhecimento em modelagem de dados (Kimball, Data Vault, Lakehouse). • Experiência com integração e consumo de APIs REST. • Experiência em DataOps, versionamento Git e orquestração de pipelines (Airflow, Step Functions, Dagster ou similar). • Desejável: Power BI, Looker ou outras ferramentas de visualização. • Diferencial: vivência com dados de operações logísticas, transporte, portos ou ferrovias.
• Capacitação constante
Candidatar-seOutubro 22
Analista de Analytics responsável por desenvolver pipelines de dados. Colabora com as equipes de negócio e Data Science para suportar análises exploratórias e modelos preditivos.
🗣️🇧🇷🇵🇹 Português obrigatório
Outubro 17
Especialista em Dados Pleno/Sênior na CI&T desenvolvendo pipelines de ingestão de dados e garantindo a qualidade dos dados. Colabora com equipes multifuncionais em projetos para clientes internacionais.
🇧🇷 Brasil – Remoto
💰 $5.500.000 Venture Round em 2014-04
⏰ Tempo Integral
🟠 Sênior
📊 Engenheiro de Analytics
🗣️🇺🇸🇬🇧 Inglês obrigatório
🗣️🇧🇷🇵🇹 Português obrigatório
Outubro 10
Engenheiro Sênior de Data Insights na Trustly, analisando arquitetura de dados e visualização para soluções de pagamento inovadoras. Colabora com equipes globais para fomentar uma cultura orientada por dados.
🗣️🇺🇸🇬🇧 Inglês obrigatório
🗣️🇧🇷🇵🇹 Português obrigatório