Senior Data Engineer

Stelle nicht auf LinkedIn

vor 2 Monaten

🗣️🇺🇸🇬🇧 Englisch erforderlich

Bewerben
Logo of paiqo

paiqo

Wir unterstützen unsere Kunden bei der Digitalisierung ihres Unternehmens in den Bereichen Datenplattformen und Künstliche Intelligenz (AI).

11 - 50 Mitarbeiter

Beschreibung

• End-to-end-Architekturen für Datenplattformen entwerfen, Self-Service-Plattformen aufbauen sowie Governance- und Kostenoptimierungsstandards implementieren • Geeignete Azure-Technologien auswählen, Code-Reviews durchführen und das Team coachen • End-to-end-Datenlösungen auf Azure entwickeln – von der Anbindung der Quellsysteme über die Verarbeitung bis zur Bereitstellung von Daten für BI-/AI-Anwendungen • Geeignete Technologien auswählen und integrieren (z. B. Streaming mit Kafka/Event Hubs, Speicherung in Azure Data Lake/Azure SQL, Verarbeitung mit Spark) • Best Practices für Codierung, Testing und Monitoring von Datenpipelines implementieren, um Zuverlässigkeit und Skalierbarkeit sicherzustellen • Automatisierte CI/CD-Workflows einrichten und operative Prozesse überwachen (Monitoring, Alerting) • Enge Zusammenarbeit mit Kunden und Fachabteilungen zur Anforderungserhebung und Überführung in technische Lösungen • Teilnahme an Pre-Sales- und Beratungsaktivitäten

🎯 Anforderungen

• Mindestens 5 Jahre Erfahrung im Data Engineering / in der Entwicklung von Datenplattformen, inklusive umfangreicher Praxiserfahrung mit Microsoft Azure • Kenntnisse in Datenarchitekturen, verteilten Datenverarbeitungssystemen und Cloud-Services (Azure Data Factory, MS Fabric, Databricks, Event Hubs usw.) • Erfahrung in Datensicherheit und Governance – kennt Datenschutzanforderungen und setzt Zugriffsberechtigungen, Verschlüsselung und Compliance-Vorgaben um • Nachweisliche Fähigkeit zur Leistungs- und Kostenoptimierung bei großen Datenvolumina • Versiert in DevOps-Methoden: kontinuierliche Bereitstellung von Datenpipelines, Infrastructure-as-Code (z. B. Terraform/Bicep) und containerisierte Deployments • Strategisches Denkvermögen und Beratungskompetenz: Fähigkeit, Geschäftsanforderungen in Datenarchitekturen zu überführen und Kunden fachkundig zu beraten • Führungskompetenz zur technischen Leitung eines Teams sowie ausgeprägte Kommunikationsfähigkeiten gegenüber Kunden (auch gegenüber nicht-technischen Ansprechpartnern) • Sehr gute Deutsch- und Englischkenntnisse

Bewerben

Ähnliche Jobs

vor 2 Monaten

Kpler

201 - 500

⚡ Energie

🚗 Transport

Dateningenieur, der Frachtverfolgungsmodelle und Back-End-Pipelines für Kplers maritime Handelsanalyse entwickelt.

🗣️🇺🇸🇬🇧 Englisch erforderlich

vor 3 Monaten

smartclip

501 - 1000

☁️ SaaS

📱 Medien

Data Engineer – KI: Aufbau skalierbarer Daten-Backends und Operationalisierung von Modellen in der Produktion bei smartclip

🇩🇪 Deutschland – Remote

💰 Series A im 2008-12

⏰ Vollzeit

🟡 Mittelstufe

🟠 Senior

🚰 Dateningenieur

🗣️🇺🇸🇬🇧 Englisch erforderlich

vor 3 Monaten

AIPERIA

51 - 200

🤖 Künstliche Intelligenz

☁️ SaaS

🌾 Landwirtschaft

Data Engineer arbeitet mit Operations und Data Science zusammen, um Datenmodelle und -pipelines weiterzuentwickeln. Vollständig remote innerhalb Deutschlands, mit Büros in Würzburg oder Berlin.

🗣️🇺🇸🇬🇧 Englisch erforderlich

vor 3 Monaten

AIPERIA

51 - 200

🤖 Künstliche Intelligenz

☁️ SaaS

🌾 Landwirtschaft

Arbeite mit Data Engineering und Data Science zusammen, um Datenmodelle und Pipelines zu verbessern. Ermögliche KI-gestützte Nachhaltigkeit im Einzelhandel durch skalierbare Dateninfrastruktur.

🗣️🇺🇸🇬🇧 Englisch erforderlich

vor 3 Monaten

virtual7 GmbH

51 - 200

🔌 API

🛍️ eCommerce

Werde Teil von virtual7 als Data Warehouse ETL‑Entwickler und treibe die Digitalisierung im öffentlichen Sektor voran.

🗣️🇺🇸🇬🇧 Englisch erforderlich

Entwickelt von Lior Neu-ner. Ich freue mich über Ihr Feedback — kontaktieren Sie mich per DM oder per E-Mail support@remoterocketship.com