
Artificial Intelligence • Cloud Services • SaaS
CI&T é especialista global em transformação tecnológica, ajudando organizações a trilhar sua jornada tecnológica. Com serviços que vão de modernização de aplicações e soluções em cloud a data analytics com IA e experiência do cliente, a CI&T capacita negócios a acelerar o crescimento e maximizar a eficiência operacional. A empresa enfatiza design de produtos digitais, consultoria estratégica e experiências imersivas, assegurando um suporte robusto para empresas de diversos setores.
5001 - 10000 funcionários
Fundada em 1995
🤖 Inteligência Artificial
☁️ SaaS
💰 $5.500.000 Venture Round em 2014-04
Ontem
🗣️🇧🇷🇵🇹 Português obrigatório

Artificial Intelligence • Cloud Services • SaaS
CI&T é especialista global em transformação tecnológica, ajudando organizações a trilhar sua jornada tecnológica. Com serviços que vão de modernização de aplicações e soluções em cloud a data analytics com IA e experiência do cliente, a CI&T capacita negócios a acelerar o crescimento e maximizar a eficiência operacional. A empresa enfatiza design de produtos digitais, consultoria estratégica e experiências imersivas, assegurando um suporte robusto para empresas de diversos setores.
5001 - 10000 funcionários
Fundada em 1995
🤖 Inteligência Artificial
☁️ SaaS
💰 $5.500.000 Venture Round em 2014-04
• Define, architect, and implement scalable data platforms and end-to-end ELT pipelines aligned with modern Lakehouse principles. • Work closely with cross-functional teams across the US, Colombia, and Brazil to ensure that our data ecosystem is reliable, future-proof, and aligned with enterprise architecture standards. • Exhibit deep technical expertise, strong architectural thinking, and the ability to influence and mentor engineering teams. • Utilize fluent English communication for collaborating with global stakeholders, presenting architectural recommendations, and ensuring alignment across distributed teams.
• Expert level SQL, with demonstrated ability to optimize, refactor, and validate large-scale transformations. • Advanced Python (or similar) for automation, orchestration, and pipeline development. • Hands-on architecture and engineering experience with Snowflake, including performance tuning, security, data governance, dynamic tables, and workload management. • Advanced dbt expertise, including transformation logic, testing, documentation, deployment patterns, and CI/CD integration. • Proven production experience with Data Vault 2.0, including Hubs, Links, Satellites, PIT tables, multi-active satellites, and Business Vault patterns. • Experience with AutomateDV or equivalent frameworks is a strong asset. • Deep understanding of Data Lakehouse architectures, including medallion zone structures, incremental ingestion, and open table formats (Iceberg, Delta, Hudi is a plus). • Solid foundation in data modeling best practices, including normalized models, dimensional modeling, historization, and scalable enterprise patterns. • Ability to translate complex business requirements into robust, extensible architectural designs. • Experience orchestrating ELT/ETL workflows using Airflow, including DAG design, dependency strategies, and dynamic task generation. • Familiarity with modern orchestration frameworks such as Prefect, Dagster, or AWS Glue. • Comfort with CI/CD pipelines using GitHub Actions or similar tools, integrating dbt testing and Snowflake deployments. • Understanding of infrastructure automation, configuration-as-code, and environment management. • Experience with data observability platforms (Monte Carlo, Datafold, Great Expectations) is a nice to have. • Knowledge of Docker or Kubernetes for reproducibility and scalable deployments is a nice to have. • Familiarity with Kafka, AMQP, or other message brokers and event-driven architectures is a nice to have. • Experience working with REST/GraphQL APIs, streaming ingestion (Kinesis, Firehose), or real-time processing is a nice to have. • Experience supporting hybrid architectures, multi-cloud designs, or enterprise Lakehouse strategies is a nice to have. • Are passionate about modern data architecture, distributed systems, and scalable design. • Naturally mentor engineers, uplift teams, and drive technical excellence. • Thrive in collaborative, multicultural environments. • Value diversity, inclusion, and respectful partnership. • Bring a data-driven, continuous improvement mindset and are comfortable challenging the status quo. • Align with our culture of diversity, inclusion, and respectful collaboration, bringing a team-first mindset.
• Health and dental insurance • Meal and food allowance • Childcare assistance • Extended paternity leave • Partnership with gyms and health and wellness professionals via Wellhub (Gympass) TotalPass; • Profit Sharing and Results Participation (PLR); • Life insurance • Continuous learning platform (CI&T University); • Discount club • Free online platform dedicated to physical, mental, and overall well-being • Pregnancy and responsible parenting course • Partnerships with online learning platforms • Language learning platform • And many more!
Candidatar-seOntem
Engenheiro(a) de Dados atuando remotamente para desenvolver e gerenciar pipelines de transformação de dados para a Vobi. Contribuindo para a digitalização da indústria da construção no Brasil.
🇧🇷 Brasil – Remoto
💰 $7.000.000 Seed Round em 2022-02
⏰ Tempo Integral
🟡 Pleno
🟠 Sênior
🚰 Engenheiro de Dados
🗣️🇺🇸🇬🇧 Inglês obrigatório
Ontem
Analista Sênior de Engenharia de Dados na Serasa Experian desenvolvendo soluções de software e assegurando a qualidade de pipelines de dados. Colaborando em um squad para projetar e implementar arquiteturas de dados de alto desempenho.
🗣️🇧🇷🇵🇹 Português obrigatório
2 dias atrás
Engenheiro de Dados responsável pelo gerenciamento completo do fluxo de dados, da ingestão ao armazenamento em nuvem, para players de mídia. Atua também como mentor da equipe e desenvolve frameworks de governança de dados.
🗣️🇧🇷🇵🇹 Português obrigatório
3 dias atrás
Engenheiro(a) de Operações de Dados com foco em apoiar o desenvolvimento e a manutenção de pipelines de dados. Atuação em fluxos de trabalho de analytics e machine learning, com desenvolvimento contínuo de expertise técnico.
🗣️🇺🇸🇬🇧 Inglês obrigatório
3 dias atrás
Engenheiro(a) de DataOps construindo e gerenciando ecossistemas de dados de classe mundial na Gipsyy. Garantindo pipelines de dados robustos e seguros para equipes inovadoras de analytics e machine learning.
🗣️🇧🇷🇵🇹 Português obrigatório