Analytics Engineer AWS

Vaga não está no LinkedIn

Outubro 27

🗣️🇧🇷🇵🇹 Português obrigatório

Candidatar-se
Logo of Leega

Leega

API • Artificial Intelligence • Cloud Solutions

A Leega é uma provedora líder de soluções de tecnologia na América Latina, especializada em analytics de dados e soluções em nuvem. Primeira empresa na região certificada pelo Google Cloud em Data Analytics, a Leega oferece um portfólio de serviços que inclui desenvolvimento de aplicações, machine learning e analytics para gestão de riscos. A empresa faz parcerias com os principais provedores de nuvem, como AWS e Microsoft Azure, para ajudar as empresas a aprimorar a gestão de dados e realizar uma migração eficiente para a nuvem, impulsionando a transformação digital e a inovação.

201 - 500 funcionários

Fundada em 2010

🔌 API

🤖 Inteligência Artificial

Descrição

• Desenvolver pipelines de dados utilizando AWS Glue, S3 e Lambda, estruturando dados de diferentes sistemas operacionais e sensores ferroviários. • Criar e manter pipelines modulares em Kedro, assegurando rastreabilidade, versionamento e reprodutibilidade dos fluxos analíticos. • Preparar, padronizar e transmitir dados operacionais a órgãos regulatórios via API, garantindo compliance e integridade das informações. • Integrar e transformar dados para uso em modelos de machine learning no AWS SageMaker, conectando resultados analíticos às áreas de negócio. • Implementar boas práticas de DataOps, CI/CD e versionamento com Git para pipelines analíticos. • Projetar e otimizar modelos dimensionais voltados à performance operacional, transit time, produtividade e capacidade da via. • Apoiar times de Data Science e Planejamento Operacional com dados consistentes e de alta disponibilidade para análises preditivas e prescritivas. • Garantir a governança e a qualidade dos dados críticos da operação ferroviária.

🎯 Requisitos

• Domínio em SQL e experiência com Python (Pandas, PySpark, boto3). • Experiência comprovada em AWS Glue, SageMaker, S3, Lambda e API Gateway. • Vivência com Kedro para desenvolvimento de pipelines analíticos. • Conhecimento em modelagem de dados (Kimball, Data Vault, Lakehouse). • Experiência com integração e consumo de APIs REST. • Experiência em DataOps, versionamento Git e orquestração de pipelines (Airflow, Step Functions, Dagster ou similar). • Desejável: Power BI, Looker ou outras ferramentas de visualização. • Diferencial: vivência com dados de operações logísticas, transporte, portos ou ferrovias.

🏖️ Benefícios

• Capacitação constante

Candidatar-se

Vagas Similares

Outubro 22

Invillia

5001 - 10000

🔌 API

🤝 B2B

☁️ SaaS

Analista de Analytics responsável por desenvolver pipelines de dados. Colabora com as equipes de negócio e Data Science para suportar análises exploratórias e modelos preditivos.

🗣️🇧🇷🇵🇹 Português obrigatório

Outubro 17

CI&T

5001 - 10000

🤖 Inteligência Artificial

☁️ SaaS

Especialista em Dados Pleno/Sênior na CI&T desenvolvendo pipelines de ingestão de dados e garantindo a qualidade dos dados. Colabora com equipes multifuncionais em projetos para clientes internacionais.

🇧🇷 Brasil – Remoto

💰 $5.500.000 Venture Round em 2014-04

⏰ Tempo Integral

🟠 Sênior

📊 Engenheiro de Analytics

🗣️🇺🇸🇬🇧 Inglês obrigatório

🗣️🇧🇷🇵🇹 Português obrigatório

Outubro 10

Trustly

-

💳 Fintech

💸 Finanças

🛍️ Comércio Eletrônico

Engenheiro Sênior de Data Insights na Trustly, analisando arquitetura de dados e visualização para soluções de pagamento inovadoras. Colabora com equipes globais para fomentar uma cultura orientada por dados.

🗣️🇺🇸🇬🇧 Inglês obrigatório

🗣️🇧🇷🇵🇹 Português obrigatório

Desenvolvido por Lior Neu-ner. Adoraria receber seu feedback — entre em contato por DM ou pelo e-mail support@remoterocketship.com