Dateningenieur

Stelle nicht auf LinkedIn

vor 2 Monaten

🇩🇪 Deutschland – Remote

⏰ Vollzeit

🟢 Junior

🟡 Mittelstufe

🚰 Dateningenieur

🚫👨‍🎓 Kein Abschluss erforderlich

🗣️🇺🇸🇬🇧 Englisch erforderlich

Bewerben
Logo of paiqo

paiqo

Wir unterstützen unsere Kunden bei der Digitalisierung ihres Unternehmens in den Bereichen Datenplattformen und Künstliche Intelligenz (AI).

11 - 50 Mitarbeiter

Beschreibung

• Aufbau und Betrieb moderner Datenplattformen mit Schwerpunkt auf Data Engineering • Entwicklung skalierbarer Datenpipelines und ETL/ELT-Prozesse auf Microsoft Azure • Entwicklung stabiler Batch- und Streaming-Pipelines mit Azure Data Factory und Databricks/Spark • Sicherstellung der Zuverlässigkeit durch Best Practices wie Delta Lake, automatisierte Workflows und VNet-Absicherung • Übernahme der Verantwortung für Teilprojekte in der Datenintegration, z. B. Einrichtung des Datenpfads von operativen Systemen zu einem Data Lakehouse • Implementierung und Optimierung von ETL/ELT‑Pipelines sowie Sicherstellung der Datenqualität • Nutzung von Azure-Datenservices für Speicherung und Verarbeitung (Data Lake, Azure SQL, Databricks, MS Fabric) • Mitwirkung beim Aufbau von CI/CD‑Pipelines (Azure DevOps oder GitHub) für automatisierte Deployments • Enge Zusammenarbeit mit Data Scientists und Analytics-Teams zur Bereitstellung von Daten für Analytics und Machine Learning

🎯 Anforderungen

• 2–4 Jahre Berufserfahrung im Data Engineering oder in der Entwicklung von Datenplattformen • Fundierte Kenntnisse in SQL sowie Programmierkenntnisse (Python oder Scala) • Erfahrung mit Azure Data Services (z. B. Azure Data Factory, Azure Databricks, Synapse) • Vertrautheit mit Datenmodellierung (z. B. Star Schema, Kimball) • Erfahrung im Monitoring von Datenplattformen und in der Performance-Optimierung • Erfahrung mit Versionsverwaltung (Git) und DevOps-Praktiken (Continuous Integration, Infrastructure as Code) • Kommunikations- und Kollaborationsfähigkeit: Zusammenarbeit mit Data Scientists, Analysten und Kunden sowie die Vermittlung technischer Konzepte für nicht-technische Personen • Problemlösungsfähigkeit & analytisches Denken: Optimierung von Datenströmen, Identifikation von Engpässen und Erarbeitung kreativer Lösungen • Sprachkenntnisse: Deutsch fließend, Englisch gut

Bewerben

Ähnliche Jobs

vor 2 Monaten

Kpler

201 - 500

⚡ Energie

🚗 Transport

Dateningenieur, der Frachtverfolgungsmodelle und Back-End-Pipelines für Kplers maritime Handelsanalyse entwickelt.

🗣️🇺🇸🇬🇧 Englisch erforderlich

vor 3 Monaten

smartclip

501 - 1000

☁️ SaaS

📱 Medien

Data Engineer – KI: Aufbau skalierbarer Daten-Backends und Operationalisierung von Modellen in der Produktion bei smartclip

🇩🇪 Deutschland – Remote

💰 Series A im 2008-12

⏰ Vollzeit

🟡 Mittelstufe

🟠 Senior

🚰 Dateningenieur

🗣️🇺🇸🇬🇧 Englisch erforderlich

vor 3 Monaten

AIPERIA

51 - 200

🤖 Künstliche Intelligenz

☁️ SaaS

🌾 Landwirtschaft

Data Engineer arbeitet mit Operations und Data Science zusammen, um Datenmodelle und -pipelines weiterzuentwickeln. Vollständig remote innerhalb Deutschlands, mit Büros in Würzburg oder Berlin.

🗣️🇺🇸🇬🇧 Englisch erforderlich

vor 3 Monaten

AIPERIA

51 - 200

🤖 Künstliche Intelligenz

☁️ SaaS

🌾 Landwirtschaft

Arbeite mit Data Engineering und Data Science zusammen, um Datenmodelle und Pipelines zu verbessern. Ermögliche KI-gestützte Nachhaltigkeit im Einzelhandel durch skalierbare Dateninfrastruktur.

🗣️🇺🇸🇬🇧 Englisch erforderlich

vor 3 Monaten

virtual7 GmbH

51 - 200

🔌 API

🛍️ eCommerce

Werde Teil von virtual7 als Data Warehouse ETL‑Entwickler und treibe die Digitalisierung im öffentlichen Sektor voran.

🗣️🇺🇸🇬🇧 Englisch erforderlich

Entwickelt von Lior Neu-ner. Ich freue mich über Ihr Feedback — kontaktieren Sie mich per DM oder per E-Mail support@remoterocketship.com