
Wir unterstützen unsere Kunden bei der Digitalisierung ihres Unternehmens in den Bereichen Datenplattformen und Künstliche Intelligenz (AI).
11 - 50 Mitarbeiter
vor 2 Monaten
🇩🇪 Deutschland – Remote
⏰ Vollzeit
🟢 Junior
🟡 Mittelstufe
🚰 Dateningenieur
🚫👨🎓 Kein Abschluss erforderlich
🗣️🇺🇸🇬🇧 Englisch erforderlich

Wir unterstützen unsere Kunden bei der Digitalisierung ihres Unternehmens in den Bereichen Datenplattformen und Künstliche Intelligenz (AI).
11 - 50 Mitarbeiter
• Aufbau und Betrieb moderner Datenplattformen mit Schwerpunkt auf Data Engineering • Entwicklung skalierbarer Datenpipelines und ETL/ELT-Prozesse auf Microsoft Azure • Entwicklung stabiler Batch- und Streaming-Pipelines mit Azure Data Factory und Databricks/Spark • Sicherstellung der Zuverlässigkeit durch Best Practices wie Delta Lake, automatisierte Workflows und VNet-Absicherung • Übernahme der Verantwortung für Teilprojekte in der Datenintegration, z. B. Einrichtung des Datenpfads von operativen Systemen zu einem Data Lakehouse • Implementierung und Optimierung von ETL/ELT‑Pipelines sowie Sicherstellung der Datenqualität • Nutzung von Azure-Datenservices für Speicherung und Verarbeitung (Data Lake, Azure SQL, Databricks, MS Fabric) • Mitwirkung beim Aufbau von CI/CD‑Pipelines (Azure DevOps oder GitHub) für automatisierte Deployments • Enge Zusammenarbeit mit Data Scientists und Analytics-Teams zur Bereitstellung von Daten für Analytics und Machine Learning
• 2–4 Jahre Berufserfahrung im Data Engineering oder in der Entwicklung von Datenplattformen • Fundierte Kenntnisse in SQL sowie Programmierkenntnisse (Python oder Scala) • Erfahrung mit Azure Data Services (z. B. Azure Data Factory, Azure Databricks, Synapse) • Vertrautheit mit Datenmodellierung (z. B. Star Schema, Kimball) • Erfahrung im Monitoring von Datenplattformen und in der Performance-Optimierung • Erfahrung mit Versionsverwaltung (Git) und DevOps-Praktiken (Continuous Integration, Infrastructure as Code) • Kommunikations- und Kollaborationsfähigkeit: Zusammenarbeit mit Data Scientists, Analysten und Kunden sowie die Vermittlung technischer Konzepte für nicht-technische Personen • Problemlösungsfähigkeit & analytisches Denken: Optimierung von Datenströmen, Identifikation von Engpässen und Erarbeitung kreativer Lösungen • Sprachkenntnisse: Deutsch fließend, Englisch gut
Bewerbenvor 2 Monaten
Dateningenieur, der Frachtverfolgungsmodelle und Back-End-Pipelines für Kplers maritime Handelsanalyse entwickelt.
🗣️🇺🇸🇬🇧 Englisch erforderlich
vor 3 Monaten
Data Engineer – KI: Aufbau skalierbarer Daten-Backends und Operationalisierung von Modellen in der Produktion bei smartclip
🗣️🇺🇸🇬🇧 Englisch erforderlich
vor 3 Monaten
Data Engineer arbeitet mit Operations und Data Science zusammen, um Datenmodelle und -pipelines weiterzuentwickeln. Vollständig remote innerhalb Deutschlands, mit Büros in Würzburg oder Berlin.
🗣️🇺🇸🇬🇧 Englisch erforderlich
vor 3 Monaten
Arbeite mit Data Engineering und Data Science zusammen, um Datenmodelle und Pipelines zu verbessern. Ermögliche KI-gestützte Nachhaltigkeit im Einzelhandel durch skalierbare Dateninfrastruktur.
🗣️🇺🇸🇬🇧 Englisch erforderlich
vor 3 Monaten
Werde Teil von virtual7 als Data Warehouse ETL‑Entwickler und treibe die Digitalisierung im öffentlichen Sektor voran.
🗣️🇺🇸🇬🇧 Englisch erforderlich