Cloud Data Architect - GCP

Job not on LinkedIn

July 5

🇵🇱 Poland – Remote

💵 zł165 - zł245 / hour

⏰ Full Time

🟡 Mid-level

🟠 Senior

🚰 Data Engineer

🗣️🇵🇱 Polish Required

Apply Now
Logo of Future Processing

Future Processing

Artificial Intelligence • SaaS • Cybersecurity

Future Processing is a digital strategy advisor and tech delivery partner with over 20 years of experience serving global clients across various industries. They specialize in offering AI, cloud, and data solutions to optimize business operations, improve productivity, and drive company growth. With a unique focus on outcomes and business value, Future Processing uses a pay-only-for-performance model to align with client goals, ensuring transparency and efficiency in software delivery. Their services span from AI adoption and data integration to system modernization and cybersecurity, making them a comprehensive partner for digital transformation and technological advancement.

1001 - 5000 employees

Founded 2000

🤖 Artificial Intelligence

☁️ SaaS

🔒 Cybersecurity

📋 Description

• Cloud Data Architect (GCP)

🎯 Requirements

• posiadasz min. 5 lat doświadczenia w pracy z danymi w Google Cloud Platform (potwierdzone komercyjnymi wdrożeniami produkcyjnymi). • masz szeroką wiedzę o usługach Data & Analytics w GCP (BigQuery, BigLake, Dataflow, Dataproc, Pub/Sub, Cloud Composer, Dataplex, Senstive Data Protection, Looker, Vertex AI). • biegle korzystasz z narzędzi i procesów CI/CD, IaC (Terraform i/lub Cloud Deploy/Cloud Build), Git. • potrafisz projektować i modyfikować modele danych oraz dobierać odpowiednią architekturę (DWH, Data Marts, Data Lake, Delta Lake, Lakehouse, BigLake). • architektury Lambda i Kappa nie kryją przed Tobą tajemnic; wiesz, jak implementować je w GCP. • masz doświadczenie w budowie rozwiązań “near-real-time” (Pub/Sub, Dataflow). • korzystasz z SQL i Pythona na poziomie zaawansowanym. • potrafisz projektować skalowalne i odporne na błędy pipeline’y z wykorzystaniem Dataflow (Apache Beam) i Dataproc, dobierając odpowiednie wzorce dla przetwarzania batch & streaming. • masz doświadczenie w optymalizacji wydajności i kosztów pipeline’ów Dataflow oraz klastrów Dataproc (autoscaling, sizing workerów). • monitoring, diagnostyka i rozwiązywanie problemów w chmurze (Cloud Monitoring, Logging, Error Reporting, Cloud Trace) to dla Ciebie codzienność. • posiadasz wiedzę na temat migracji rozwiązań on-premise do GCP i znasz różne typy migracji (lift-and-shift, re-platform, re-architect). • wiesz, jak stosować mechanizmy bezpiecznego przechowywania i przetwarzania danych w GCP (VPC Service Controls, CMEK, DLP, Cloud KMS). • brałeś(aś) udział w spotkaniach przedsprzedażowych i umiesz przekładać wymagania biznesowe na rozwiązania techniczne. • cechuje Cię myślenie strategiczne i analityczne, dobra samoorganizacja, samodzielność, adaptacyjność, komunikatywność oraz proaktywność. • masz doświadczenie w mentorowaniu i szkoleniu inżynierów o mniejszym stażu oraz wspieraniu ich rozwoju. • prowadzenie prezentacji / prelekcji podczas wydarzeń branżowych nie spędza Ci snu z powiek. • jesteś otwarty(a) na wyjazdy służbowe. • posługujesz się językiem angielskim na poziomie zaawansowanym (min. C1).

🏖️ Benefits

• konsultowanie rozwiązań z klientami – obecnymi i potencjalnymi – oraz doradztwo w doborze technologii GCP, z dążeniem do optymalnego kosztowo rozwiązania problemu biznesowego. • udział w spotkaniach discovery / pitch – prezentacja naszego doświadczenia, procesu, podejścia do GCP, doprecyzowanie wymagań. • tworzenie wkładu merytorycznego do ofert: schematy architektury, obliczenia TCO / ROI / kosztów GCP za pomocą Pricing Calculatora. • estymowanie projektów i zapotrzebowania na zasoby zespołu Data Solutions. • budowanie argumentacji przekonującej klienta do proponowanego rozwiązania, wskazywanie przewag nad alternatywami. • udział w spotkaniach ofertowych – odpowiadanie na pytania, prezentacja architektury i kosztorysu. • R&D w obszarze Data & Analytics GCP – analiza nowych usług i narzędzi pod kątem wartości biznesowej. • tworzenie Proof-of-Concept dla nowych koncepcji danych. • utrzymywanie relacji z technicznym zespołem klienta i koordynację pracy inżynierów zaangażowanych w projekt. • aktywne zaangażowanie w rozwój linii biznesowej Data Solutions (rekrutacja, pozyskiwanie klientów, prelekcje konferencyjne, mentoring). • odpowiedzialność end-to-end za rozwiązania data-platformowe tworzone wspólnie z zespołem. • tworzenie i optymalizację potoków ETL/ELT w GCP (BigQuery, Dataflow, Dataproc, Cloud Composer). • tworzenie i modyfikowanie dokumentacji. • budowanie i utrzymywanie katalogu oraz modeli danych zgodnie z najlepszymi praktykami Data Governance. • analizę wymagań biznesowych i dobór optymalnych rozwiązań technologicznych. • analizowanie potencjalnych zagrożeń. • monitoring, diagnostykę i FinOps-owe optymalizacje kosztów chmury.

Apply Now

Similar Jobs

May 27

Madiff

51 - 200

🤝 B2B

🤖 Artificial Intelligence

Join a remote team as a Data Engineer, developing data lakes and real-time solutions with Azure.

🇵🇱 Poland – Remote

⏰ Full Time

🟠 Senior

🚰 Data Engineer

🗣️🇵🇱 Polish Required

April 17

Provectus

501 - 1000

🤖 Artificial Intelligence

☁️ SaaS

Seeking a Data Engineer at Provectus to tackle technical challenges in data and ML.

🇵🇱 Poland – Remote

⏰ Full Time

🟠 Senior

🚰 Data Engineer

March 27

Addepto

51 - 200

🤖 Artificial Intelligence

🏢 Enterprise

☁️ SaaS

Join Addepto as a Data Engineer to work on AI & Big Data projects remotely.

🇵🇱 Poland – Remote

⏰ Full Time

🟡 Mid-level

🟠 Senior

🚰 Data Engineer

Developed by Lior Neu-ner. I'd love to hear your feedback — Get in touch via DM or support@remoterocketship.com