
Artificial Intelligence • SaaS • Fintech
Datarisk is a data science and AI company that provides an MLOps platform, Model-as-a-Service (MaaS), credit-scoring solutions and AI agents to help organizations train, deploy and monitor machine learning models. It focuses on improving decision-making and risk management for financial institutions, fintechs and enterprises across sectors (marketing, supply chain, people analytics, retail and healthcare) by delivering cloud-hosted predictive models, specialized credit scores and consulting services. Datarisk positions itself as a B2B SaaS provider of machine learning and AI-driven products and services.
September 25
🗣️🇧🇷🇵🇹 Portuguese Required

Artificial Intelligence • SaaS • Fintech
Datarisk is a data science and AI company that provides an MLOps platform, Model-as-a-Service (MaaS), credit-scoring solutions and AI agents to help organizations train, deploy and monitor machine learning models. It focuses on improving decision-making and risk management for financial institutions, fintechs and enterprises across sectors (marketing, supply chain, people analytics, retail and healthcare) by delivering cloud-hosted predictive models, specialized credit scores and consulting services. Datarisk positions itself as a B2B SaaS provider of machine learning and AI-driven products and services.
• Atuar como consultor em projetos estratégicos de negócios voltados para engenharia de dados utilizando plataforma Databricks • Identificar e implementar melhores práticas para cargas de grande volume de dados, garantindo performance e disponibilidade • Trabalhar com otimização de queries e modelagem de dados para melhorar a eficiência em consultas analíticas • Desenvolver e manter pipelines de dados (ETL/ELT) para integração de diversas fontes, garantindo qualidade e governança • Desenhar e implementar arquiteturas de Data Lakehouse, aplicando o conceito Medalhão (Bronze, Silver, Gold) • Apoiar a modelagem de dados para Data Warehouses modernos (Star-Schema, Snowflake) • Explorar boas práticas em ambientes de Big Data, especialmente no contexto Databricks e Delta Lake • Utilizar formatos abertos como Delta Lake, Iceberg, Parquet e Avro para construção e governança de arquiteturas Lakehouse • Garantir a governança de dados, incluindo controle de acessos e versionamento
• Experiência sólida em Databricks e arquitetura Delta Lakehouse • Forte conhecimento em SQL e otimização de queries para processamento distribuído • Experiência com ETL/ELT e arquitetura de dados escalável • Conhecimento de pipelines de dados incrementais (UPSERTS, MERGE, CDC) • Experiência em modelagem de dados analítica (Star-Schema, Snowflake) • Experiência com cargas em Databricks, incluindo refatoração de pipelines e tuning de performance • Familiaridade com Unity Catalog (diferencial) • Conhecimento em Data Warehouses modernos (Databricks, Snowflake, BigQuery, Redshift) (diferencial) • Vivência em arquiteturas na AWS, com domínio de serviços como S3, IAM, Glue e EMR (diferencial) • Experiência em provisionar e configurar clusters Databricks do zero, incluindo infraestrutura, rede, permissões e integração com catálogos de dados (diferencial)
• Flexibilidade! Nosso time é remoto, você pode trabalhar onde quiser • Plano de saúde Bradesco • Plano odontológico Bradesco • Conexa Saúde & Psicologia Viva • Wellhub (antiga Gympass) • Parceria com a Open English • Caju: Auxílio Home Office • Day off de aniversário • 22 dias úteis/ano de recesso remunerado • Modelo de contratação PJ (valor fixo mensal)
Apply NowSeptember 25
Azure
Cloud
PySpark
Scala
SQL
August 22
Senior Data Engineer (Ultracon Consultoria em TI) working remotely, focusing on Azure, Databricks, SQL, Python and data projects.
🗣️🇧🇷🇵🇹 Portuguese Required
Airflow
Azure
Cloud
Kafka
Node.js
PySpark
Python
SQL
SSIS
Terraform
August 22
Ingest data via APIs into Microsoft Fabric Data Lake/Warehouse using Medallion architecture; remote LATAM | Develop PySpark transformations across Bronze, Silver, Gold and sync to Azure Synapse Analytics.
Azure
PySpark
Python
July 8
As a Data Engineer, contribute to Quartile's mission by developing innovative data pipelines.
AWS
Azure
Cloud
Java
Kafka
MySQL
Postgres
PySpark
Python
Scala
Spark
Terraform
June 29
Remote Senior Data Architect for Spassu, specializing in Microsoft Azure for supermarkets.
🗣️🇧🇷🇵🇹 Portuguese Required
Airflow
Azure
Cloud
Node.js
Python
SQL
Vault