
Consulting • SaaS • Education
UltraCon Consultoria is a consultancy specializing in the allocation of experts in SAP, Oracle, and other platforms. They focus on system improvement projects, organizational projects, and training programs, ensuring businesses leverage management and operational efficiency through expert guidance.
August 9
🗣️🇧🇷🇵🇹 Portuguese Required
Docker
ElasticSearch
Hadoop
HBase
HDFS
Kubernetes
Linux
MapReduce
Maven
MongoDB
Node.js
Oracle
Python
Scala
SOAP
SQL
Yarn
Zookeeper

Consulting • SaaS • Education
UltraCon Consultoria is a consultancy specializing in the allocation of experts in SAP, Oracle, and other platforms. They focus on system improvement projects, organizational projects, and training programs, ensuring businesses leverage management and operational efficiency through expert guidance.
• Ultracon Consultoria em TI Ltd 12554 - Engenheiro de Dados Trabalho remoto | Postado em 08/08/2025 • Estou interessado {{getI18n("zr.cw.sh.job")}} Compartilhar trabalho por e-mail Compartilhe este trabalho com sua rede • Listagem de vagas Detalhes da vaga • Informações da vaga • Data da abertura 08/08/2025 • Trabalho remoto • Localidade 100% Remoto • Escopo Vaga: Engenheiro de Dados • Data de Início: Imediata • Tempo de Alocação: Indeterminado • Local de Trabalho: São Paulo/SP (100% remoto) • Horário de Trabalho: 9h00 às 18h00 • Requisitos Obrigatórios: - Experiência com shell script ( sh/ksh/bash ) - Linguagem de programação: python 3.x , scala 2.X e Java8 - Paradigma de Linguagem de Programação: Funcional, Procedural e OO. - Ferramentas de build: sbt/maven - IDEs : Intellij/Vs-Code - Ferramentas de gestão de configuração : gitlab e git. - Conhecimentos de CI/CD - Conhecimentos de Linux ( Sistema operacional, comandos básicos, gerenciamento de processos, gerenciamento de arquivos ) - Banco de Dados Relacional : Oracle - Banco de Dados Não Relacional : Mongodb/ElasticSearch - Banco de Dados colunar: HBASE. - Integração de Sistemas: conhecimento e experiência com APIs REST, APIs Soap. - Dominar os conceitos de Big-Data ( Hadoop, MapReduce, Ingestão de dados, Processamento de dados e Armazenamento de dados ). • Requisitos Desejáveis: - Conhecimentos de conteiner (docker/docker-compose), orquestração de conteiner (K8S, docker-swarm) e Kubernetes. - Conhecimentos, experiências e domínio em ecosistema Hadoop: Hive/HUE/Impala/Hbase/Hdfs/Sqoop/Beeline Consultar Spark2/Spark3 SQL e Streaming Dataframe Dados estruturados e semiestruturados em forma tabular Operações : Transformações e Ações. Formato de Arquivos Parquet ORC JSON CSV Plain Text YARN/Zookeeper Gerencimento de Processos Kerberos Autenticação - Conhecimentos em ControlM e Cloudera Manager. - Conhecimentos em Telecomunicações ( Operadora Móvel ). Maiores detalhes serão fornecidos durante entrevista técnica com o cliente. • Estou interessado
• Experiência com shell script ( sh/ksh/bash ) • Linguagem de programação: python 3.x , scala 2.X e Java8 • Paradigma de Linguagem de Programação: Funcional, Procedural e OO. • Ferramentas de build: sbt/maven • IDEs : Intellij/Vs-Code • Ferramentas de gestão de configuração : gitlab e git. • Conhecimentos de CI/CD • Conhecimentos de Linux ( Sistema operacional, comandos básicos, gerenciamento de processos, gerenciamento de arquivos ) • Banco de Dados Relacional : Oracle • Banco de Dados Não Relacional : Mongodb/ElasticSearch • Banco de Dados colunar: HBASE. • Integração de Sistemas: conhecimento e experiência com APIs REST, APIs Soap. • Dominar os conceitos de Big-Data ( Hadoop, MapReduce, Ingestão de dados, Processamento de dados e Armazenamento de dados ). • Conhecimentos de conteiner (docker/docker-compose), orquestração de conteiner (K8S, docker-swarm) e Kubernetes. • Conhecimentos, experiências e domínio em ecosistema Hadoop: Hive/HUE/Impala/Hbase/Hdfs/Sqoop/Beeline Consultar Spark2/Spark3 SQL e Streaming Dataframe Dados estruturados e semiestruturados em forma tabular Operações : Transformações e Ações. • Formato de Arquivos Parquet ORC JSON CSV Plain Text YARN/Zookeeper Gerencimento de Processos Kerberos Autenticação • Conhecimentos em ControlM e Cloudera Manager. • Conhecimentos em Telecomunicações ( Operadora Móvel ).
Apply NowAugust 8
Join GFT as a Senior Data Engineer, specializing in data ingestion, processing, and AWS. Deliver data pipelines and collaborate in a multi-disciplinary team.
🗣️🇧🇷🇵🇹 Portuguese Required
AWS
ETL
Hadoop
NoSQL
PySpark
Python
Scala
SQL
August 6
Keyrus seeks a Senior Data Engineer to develop scalable data solutions using Azure technologies.
🗣️🇧🇷🇵🇹 Portuguese Required
Airflow
Azure
ETL
PySpark
SQL
July 31
Join GFT as a Data Engineer, leveraging your skills in data architecture and AWS.
🗣️🇧🇷🇵🇹 Portuguese Required
Amazon Redshift
AWS
Docker
EC2
Jenkins
Python
July 22
Join GFT as a Senior AWS Data Engineer and work 100% remotely on data projects.
🗣️🇧🇷🇵🇹 Portuguese Required
Airflow
Amazon Redshift
Apache
AWS
DynamoDB
Jenkins
Kafka
MongoDB
Postgres
Python
July 18
Profissional em Engenharia de Dados, atuando com AWS SAS e Glue em ambiente remoto.
🗣️🇧🇷🇵🇹 Portuguese Required
AWS
Cloud
ETL
PySpark
Python