
Consulting • SaaS • Education
A UltraCon Consultoria é uma consultoria especializada na alocação de especialistas em SAP, Oracle e outras plataformas. Focamos em projetos de melhoria de sistemas, projetos organizacionais e programas de treinamento, assegurando que as empresas potencializem a gestão e a eficiência operacional por meio de orientação especializada.
11 - 50 funcionários
Fundada em 1998
☁️ SaaS
📚 Educação
Agosto 9
🗣️🇧🇷🇵🇹 Português obrigatório
Docker
ElasticSearch
Hadoop
HBase
HDFS
Kubernetes
Linux
MapReduce
Maven
MongoDB
Node.js
Oracle
Python
Scala
SOAP
SQL
Yarn
Zookeeper

Consulting • SaaS • Education
A UltraCon Consultoria é uma consultoria especializada na alocação de especialistas em SAP, Oracle e outras plataformas. Focamos em projetos de melhoria de sistemas, projetos organizacionais e programas de treinamento, assegurando que as empresas potencializem a gestão e a eficiência operacional por meio de orientação especializada.
11 - 50 funcionários
Fundada em 1998
☁️ SaaS
📚 Educação
• Ultracon Consultoria em TI Ltd – 12554 - Engenheiro de Dados • Trabalho remoto | Postado em 08/08/2025 • Estou interessado {{getI18n("zr.cw.sh.job")}} Compartilhar trabalho por e-mail Compartilhe este trabalho com sua rede • Listagem de vagas Detalhes da vaga • Informações da vaga • Data da abertura 08/08/2025 • Trabalho remoto • Localidade 100% Remoto • Escopo Vaga: Engenheiro de Dados • Data de Início: Imediata • Tempo de Alocação: Indeterminado • Local de Trabalho: São Paulo/SP (100% remoto) • Horário de Trabalho: 9h00 às 18h00 • Requisitos Obrigatórios: - Experiência com shell script (sh/ksh/bash) - Linguagens de programação: Python 3.x, Scala 2.x e Java 8 - Paradigmas de programação: Funcional, Procedural e Orientada a Objetos - Ferramentas de build: sbt/maven - IDEs: IntelliJ/VS Code - Ferramentas de gestão de configuração: GitLab e Git - Conhecimentos de CI/CD - Conhecimentos de Linux (sistema operacional, comandos básicos, gerenciamento de processos, gerenciamento de arquivos) - Banco de Dados Relacional: Oracle - Banco de Dados Não Relacional: MongoDB/Elasticsearch - Banco de Dados colunar: HBase - Integração de Sistemas: conhecimento e experiência com APIs REST e SOAP - Domínio dos conceitos de Big Data (Hadoop, MapReduce, ingestão de dados, processamento de dados e armazenamento de dados). • Requisitos Desejáveis: - Conhecimentos de container (Docker/Docker Compose), orquestração de containers (K8s, Docker Swarm) e Kubernetes - Conhecimentos, experiência e domínio no ecossistema Hadoop: Hive/HUE/Impala/HBase/HDFS/Sqoop/Beeline; conhecimento em Spark2/Spark3 (SQL e Streaming, DataFrame); dados estruturados e semiestruturados em forma tabular; operações: transformações e ações - Formatos de arquivos: Parquet, ORC, JSON, CSV, Plain Text - YARN/Zookeeper - Gerenciamento de processos - Kerberos (autenticação) - Conhecimentos em Control-M e Cloudera Manager - Conhecimentos em Telecomunicações (operadora móvel). Maiores detalhes serão fornecidos durante entrevista técnica com o cliente. • Estou interessado
• Experiência com shell script (sh/ksh/bash) • Linguagens de programação: Python 3.x, Scala 2.x e Java 8 • Paradigmas de programação: Funcional, Procedural e Orientada a Objetos • Ferramentas de build: sbt/maven • IDEs: IntelliJ/VS Code • Ferramentas de gestão de configuração: GitLab e Git • Conhecimentos de CI/CD • Conhecimentos de Linux (sistema operacional, comandos básicos, gerenciamento de processos, gerenciamento de arquivos) • Banco de Dados Relacional: Oracle • Banco de Dados Não Relacional: MongoDB/Elasticsearch • Banco de Dados colunar: HBase • Integração de Sistemas: conhecimento e experiência com APIs REST e SOAP • Domínio dos conceitos de Big Data (Hadoop, MapReduce, ingestão de dados, processamento de dados e armazenamento de dados) • Conhecimentos de container (Docker/Docker Compose), orquestração de containers (K8s, Docker Swarm) e Kubernetes • Conhecimentos, experiência e domínio no ecossistema Hadoop: Hive/HUE/Impala/HBase/HDFS/Sqoop/Beeline; conhecimento em Spark2/Spark3 (SQL e Streaming, DataFrame); operações: transformações e ações • Formatos de arquivos: Parquet, ORC, JSON, CSV, Plain Text • YARN/Zookeeper; Gerenciamento de processos; Kerberos (autenticação) • Conhecimentos em Control-M e Cloudera Manager • Conhecimentos em Telecomunicações (operadora móvel)
Candidatar-seAgosto 8
Junte-se à GFT como Engenheiro(a) de Dados Sênior, especializado em ingestão, processamento de dados e AWS. Entregue pipelines de dados e colabore com um time multidisciplinar.
🗣️🇧🇷🇵🇹 Português obrigatório
Agosto 6
A Keyrus busca um Engenheiro de Dados Sênior para desenvolver soluções de dados escaláveis utilizando tecnologias do Azure.
🗣️🇧🇷🇵🇹 Português obrigatório
Julho 31
Junte-se à GFT como Data Engineer, aproveitando suas habilidades em arquitetura de dados e AWS.
🗣️🇧🇷🇵🇹 Português obrigatório
Julho 22
Junte-se à GFT como Engenheiro de Dados Sênior - AWS e trabalhe 100% remotamente em projetos de dados.
🗣️🇧🇷🇵🇹 Português obrigatório
Julho 18
Profissional em Engenharia de Dados, atuando com AWS SAS e Glue em ambiente remoto.
🗣️🇧🇷🇵🇹 Português obrigatório