Ingeniero de Datos

Job not on LinkedIn

November 10

🗣️🇪🇸 Spanish Required

Apply Now
Logo of Multiplica Talent

Multiplica Talent

We team up with our clients to understand their needs and offer them the best digital talent. We have 20 years of experience selecting top tier digital professionals in Latin America and Europe.

201 - 500 employees

Founded 2003

📋 Description

• - Entender las diferentes necesidades de datos de las áreas y convertirlos en tareas accionables, alineadas con los estándares de calidad y manejo de datos de Tranqui. • - Trabajar bajo una cultura DataOps que permita ser eficientes en la automatización y gestión de despliegue de infraestructura de recursos y catalogación de insumos organizacionales. • - Proponer y construir automatizaciones que eliminen tareas repetitivas en el ciclo de datos, asegurando procesos más rápidos, consistentes y confiables. • - Diseñar e implementar arquitecturas que soporten millones de eventos sin comprometer velocidad. • - Colaborar con el equipo de ingeniería y producto para planear, construir y mejorar componentes y arquitecturas, garantizando calidad de código y datos, mientras nos movemos rápido. • - Aplicar buenas prácticas de desarrollo seguro alineadas con estándares de la industria (ej. OWASP) para garantizar la integridad y confidencialidad de la información.

🎯 Requirements

• - Experiencia de **3 a 5 años** construyendo soluciones en entornos productivos de datos. • - Sólida experiencia en **bases de datos transaccionales y analíticas** (ej. PostgreSQL, BigQuery, Redshift). • - Experiencia diseñando o manteniendo **pipelines de datos** (ETL/ELT, orquestación, streaming o batch). • - Experiencia profesional programando en **Python** (procesamiento de datos, automatización, librerías como Pandas, etc) • - Experiencia colaborando en **equipos de desarrollo de software**: revisiones de PR, buenas prácticas de versionamiento, testing básico. • - Buen criterio para escribir código claro, seguro y mantenible, aplicando principios de desarrollo seguro. • **Plus (no excluyente):** • - Haber trabajado con arquitecturas orientadas a eventos o sistemas distribuidos. • - Interés en aprender o crecer en **backend con NodeJS/TypeScript**. • - Haber colaborado en startups o equipos pequeños, con mentalidad de “ensuciarse las manos”. • - Conocimiento de prácticas de DataOps (automatización, CI/CD, monitoreo de pipelines).

🏖️ Benefits

• - Salario competitivo con el mercado. • - Grandes retos técnicos. Somos una StartUp, continuamente estamos innovando y para eso necesitamos estar siempre aprendiendo nuevas técnicas y corriendo experimentos, cuestionando la forma en la que entendemos y construimos nuestras soluciones. Este es un sitio ideal para crecer y aprender. • - Excelente cultura laboral. Nos tomamos muy en serio la construcción de la cultura Tranqui, continuamente estamos implementando procesos y estrategias para asegurar el bienestar de todos nuestros empleados.

Apply Now

Similar Jobs

November 9

Senior Data Engineer responsible for building and maintaining scalable data pipelines. Collaborating with teams to optimize data infrastructure and enable efficient data delivery in Colombia.

🇨🇴 Colombia – Remote

⏰ Full Time

🟠 Senior

🚰 Data Engineer

AWS

Azure

Cloud

Google Cloud Platform

Python

SQL

Terraform

November 8

Senior Data Engineer building and maintaining data pipelines for Xeus Solutions. Designing workflows, ensuring data quality, and collaborating with cross-functional teams.

🇨🇴 Colombia – Remote

⏰ Full Time

🟠 Senior

🚰 Data Engineer

Airflow

Amazon Redshift

AWS

Cloud

DynamoDB

MySQL

Postgres

Python

SQL

November 8

Data Engineer at Influur redefining advertising through creators and AI. Opportunity to build significant technology in influencer marketing.

🇨🇴 Colombia – Remote

💰 $5M Seed Round on 2022-04

⏰ Full Time

🟡 Mid-level

🟠 Senior

🚰 Data Engineer

Airflow

AWS

Cloud

Docker

ETL

Google Cloud Platform

Python

SQL

October 31

Data Engineer IV building and maintaining data infrastructure for Propelus's healthcare solutions. Role involves designing robust data pipelines and optimizing database performance.

Airflow

Amazon Redshift

AWS

Azure

BigQuery

Cloud

Docker

ETL

Hadoop

Java

Kafka

Kubernetes

MySQL

Oracle

Postgres

Python

Scala

Spark

SQL

October 29

Data Engineer at Ekumen maintaining and enhancing data ingestion pipelines with Java and Python. Collaborating with data scientists and engineers to improve data flows and observability.

Apache

AWS

Azure

Cloud

Google Cloud Platform

Java

Python

Spark

Built by Lior Neu-ner. I'd love to hear your feedback — Get in touch via DM or support@remoterocketship.com