Leiter Datenarchitektur und Migration (Remote, Europa)

vor 3 Tagen

🇪🇺 Europa – Remote

⏳ Vertrag

🟠 Senior

🚰 Dateningenieur

🗣️🇺🇸🇬🇧 Englisch erforderlich

Bewerben
Logo of Revolgy

Revolgy

Cloud Services • Enterprise • Technology Consulting

Revolgy ist ein Unternehmen für Cloud-Dienste, das sich auf die Bereitstellung einer breiten Palette von bedarfsgerechten Cloud-Lösungen spezialisiert hat. Sie sind ein führender Google Cloud Premier Partner und ein APN Advanced Consulting Partner, der Unternehmen in jeder Phase ihrer Cloud-Reise unterstützt. Revolgy bietet Dienstleistungen wie Cloud-Beratung, Aufbau und Migration, Cloud-Optimierung und Cloud-Betrieb an. Sie bedienen verschiedene Branchen, darunter E-Commerce, Einzelhandel, Finanzdienstleistungen und Gaming. Darüber hinaus legt Revolgy großen Wert auf den Einsatz fortschrittlicher Technologien wie maschinelles Lernen, KI und Datenanalyse, um ihre Angebote zu verbessern. Mit einem Fokus auf Sicherheit und Effizienz betreuen sie über 2. 500 Kunden in 47 Ländern und bieten fachkundige Lösungen, die auf unterschiedliche Geschäftsbedürfnisse zugeschnitten sind.

51 - 200 Mitarbeiter

🏢 Unternehmen

💰 Private Equity Round im 2020-06

Beschreibung

• Strategische Führung & Migrationsdesign: Den Weg definieren: Entwicklung der End‑to‑End‑Migrationsstrategie (z. B. Lift‑and‑Shift vs. Replatforming) und Auswahl der passenden GCP‑Services (z. B. BigQuery, Dataflow, Composer) zur Ablösung bestehender Spark-/Databricks‑Logik. • Projektverantwortung: Leitung der technischen Roadmap, Sicherstellung realistischer Meilensteine und termingerechter Umsetzung. • Risikomanagement: Technische Risiken frühzeitig erkennen (z. B. Lücken in der Feature‑Parität, Kostenspitzen) und Gegenmaßnahmen konzipieren. • Kunden‑ und Stakeholder‑Management: Vertrauenswürdiger Berater: Als primärer technischer Ansprechpartner für Fachbereiche und Kunden fungieren und komplexe technische Herausforderungen in klare geschäftliche Auswirkungen übersetzen. • Anforderungsübersetzung: Hochrangige Geschäftsziele in detaillierte technische Spezifikationen für das Engineering‑Team überführen. • Krisenmanagement: Erwartungen steuern und bei auftretenden Problemen Scope‑Änderungen mit der Führungsebene abstimmen. • Technische Governance & Mentoring: Architektur‑Review: Abnahme von Datenmodellen und Transformationslogik (dbt), die vom Engineering‑Team entworfen wurden. • Qualitätssicherung: Strategie für "Data Parity"‑Tests definieren, um sicherzustellen, dass das neue GCP‑System das Legacy‑Quellsystem zu 100 % widerspiegelt. • Teamführung: Senior‑ und Medior‑Data Engineers coachen und bei Blockern in Bereichen wie Terraform, CI/CD oder SQL‑Optimierung unterstützen.

🎯 Anforderungen

• Erfahrung: Mindestens 8 Jahre in Data Engineering oder Datenarchitektur, davon mindestens 3 Jahre in einer Lead‑/Architektenrolle mit Kunden‑ und Stakeholderkontakt. • Migrationsexpertise: Nachgewiesene Erfahrung in der Leitung großangelegter Datenplattform‑Migrationen (z. B. On‑Premises in die Cloud oder Cloud‑zu‑Cloud). • Technische Kompetenz: Zielplattform (GCP): Tiefe Architekturkenntnisse des GCP‑Data‑Stacks (BigQuery ist Pflicht). • Quellensystem‑Verständnis (Spark/Databricks): Fähigkeit, bestehende PySpark‑ oder Databricks‑Architekturen zu lesen und zu verstehen, um den Refactoring‑Prozess zu steuern (Hands‑on‑Coding ist ein Plus, konzeptionelle Beherrschung erforderlich). • Moderner Stack: Vertrautheit mit modernen Transformationstools wie dbt und Infrastructure‑as‑Code (Terraform). • Fortgeschrittene SQL‑Kenntnisse (erforderlich): Sicheres Schreiben komplexer Abfragen zur Validierung der Datenparität, zur Prüfung von Datenmodellen und zur Analyse von Performance‑Engpässen in BigQuery. • Python‑Kompetenz: Fähigkeit, Legacy‑PySpark‑ oder Python‑ETL‑Skripte zu lesen und darin enthaltene Geschäftslogik zu extrahieren. • Soft Skills: Kommunikation: Hervorragende Fähigkeit, technische Strategien für nicht‑technische Zielgruppen verständlich zu präsentieren. • Verhandlungsstärke: Fähigkeit, unrealistischen Deadlines oder Anforderungen zu widersprechen, dabei jedoch starke Beziehungen aufrechtzuerhalten.

🏖️ Vorteile

• Vollständig remote: Eine 100 % Remote‑Position mit Flexibilität bei der Zeiteinteilung. • Wirkungsvolle Kultur: Ein unterstützendes Team, das Werte wie Teamarbeit und Innovationsfreude lebt, in dem proaktives Handeln geschätzt wird. • Förderung der Weiterentwicklung: Wir investieren in Ihre berufliche Entwicklung durch eine "Continuous Learning"‑Mentalität und unterstützen praktische Erfahrung sowie Zertifizierungen (z. B. GCP Professional Cloud Architect). • Innovation in der Praxis: KI und Automatisierung sind hier keine Schlagworte, sondern essentielle Werkzeuge, die wir erwarten, dass alle nutzen, um ihre Wirkung zu verstärken. • Autonomie & Verantwortung: Genießen Sie die Flexibilität und das Vertrauen, Ihre Arbeit zu gestalten, bei voller Verantwortung für die Ergebnisse.

Bewerben

Ähnliche Jobs

vor 1 Monat

P2P Labs & P2P Tech Services

11 - 50

₿ Crypto

💸 Finanzen

🤝 B2B

Data Engineer bei P2P.org, Entwicklung und Wartung von ETL-Pipelines für Blockchain-Daten und Optimierung von ClickHouse-Analysen. Zusammenarbeit im Team zur Bereitstellung zuverlässiger Datenservices.

🇪🇺 Europa – Remote

⏳ Vertrag

🟡 Mittelstufe

🟠 Senior

🚰 Dateningenieur

🗣️🇺🇸🇬🇧 Englisch erforderlich

vor 8 Monaten

Cloudacio

11 - 50

🤖 Künstliche Intelligenz

🤝 B2B

Werden Sie Teil von Cloudacio als Data Engineer und entwickeln Sie remote Datenpipelines sowie Big-Data-Lösungen.

🇪🇺 Europa – Remote

⏳ Vertrag

🟡 Mittelstufe

🟠 Senior

🚰 Dateningenieur

🗣️🇺🇸🇬🇧 Englisch erforderlich

Entwickelt von Lior Neu-ner. Ich freue mich über Ihr Feedback — kontaktieren Sie mich per DM oder per E-Mail support@remoterocketship.com