
SaaS • Artificial Intelligence • Compliance
Makersite ist ein preisgekröntes Softwareunternehmen für Datenlösungen, das auf Nachhaltigkeitsdaten und Product Lifecycle Intelligence spezialisiert ist. Das Unternehmen befähigt Ingenieur- und Einkaufsteams sowie Nachhaltigkeitsexperten, Produkte und Lieferketten zu transformieren, indem sie nachhaltige Produktentscheidungen im großen Maßstab treffen. Makersite vereint AI, Daten und Anwendungen und bietet Funktionen wie automatisierte Lifecycle Assessments (LCA), Supply-Chain-Risikomanagement und AI-gestütztes Ecodesign. Die Plattform erleichtert die Erfüllung globaler Berichtspflichten und erhöht die Transparenz in der Lieferkette, sodass Organisationen Nachhaltigkeitsziele wie die Reduzierung des CO2-Fußabdrucks und den Aufbau resilienter Lieferketten erreichen können. Makersite ist ideal für Unternehmen, die Produktnachhaltigkeit, Compliance und Kosten mithilfe datengetriebener Entscheidungsfindung effektiv steuern möchten.
51 - 200 Mitarbeiter
Gegründet 2018
☁️ SaaS
🤖 Künstliche Intelligenz
📋 Compliance
vor 2 Monaten
🗣️🇺🇸🇬🇧 Englisch erforderlich

SaaS • Artificial Intelligence • Compliance
Makersite ist ein preisgekröntes Softwareunternehmen für Datenlösungen, das auf Nachhaltigkeitsdaten und Product Lifecycle Intelligence spezialisiert ist. Das Unternehmen befähigt Ingenieur- und Einkaufsteams sowie Nachhaltigkeitsexperten, Produkte und Lieferketten zu transformieren, indem sie nachhaltige Produktentscheidungen im großen Maßstab treffen. Makersite vereint AI, Daten und Anwendungen und bietet Funktionen wie automatisierte Lifecycle Assessments (LCA), Supply-Chain-Risikomanagement und AI-gestütztes Ecodesign. Die Plattform erleichtert die Erfüllung globaler Berichtspflichten und erhöht die Transparenz in der Lieferkette, sodass Organisationen Nachhaltigkeitsziele wie die Reduzierung des CO2-Fußabdrucks und den Aufbau resilienter Lieferketten erreichen können. Makersite ist ideal für Unternehmen, die Produktnachhaltigkeit, Compliance und Kosten mithilfe datengetriebener Entscheidungsfindung effektiv steuern möchten.
51 - 200 Mitarbeiter
Gegründet 2018
☁️ SaaS
🤖 Künstliche Intelligenz
📋 Compliance
• Entwerfen, bauen und pflegen skalierbarer Datenpipelines und -infrastruktur zur Unterstützung von Analytics- und Machine-Learning-Workflows. • Entwickeln und optimieren von Daten-Storage-Lösungen (z. B. Data Lakes, Data Warehouses, Datenbanken) hinsichtlich Performance, Zuverlässigkeit und Skalierbarkeit. • Sicherstellen von Datenqualität, Konsistenz und Zugänglichkeit durch robuste Validierungs-, Bereinigungs- und Transformationsprozesse. • Zusammenarbeit mit Data Scientists, Analysten und anderen Stakeholdern, um Datenanforderungen zu verstehen und in technische Lösungen zu übersetzen. • Integration von Daten aus mehreren internen und externen Quellen unter Gewährleistung von Sicherheit und Einhaltung von Data-Governance-Richtlinien. • Unterstützung von Machine-Learning-Initiativen durch Aufbereitung, Strukturierung und Bereitstellung von Daten für Training, Testing und Deployment von Modellen. • Überwachen, Fehlerbehebung und Verbesserung von Datensystemen hinsichtlich Performance, Kosten-effizienz und Zuverlässigkeit. • Dokumentation von Prozessen, Datenflüssen und Best Practices zur Sicherstellung der Wartbarkeit und des Wissensaustauschs im Team. • Auf dem Laufenden bleiben zu neuen Data-Engineering-Tools, Technologien und Best Practices, um unsere Dateninfrastruktur kontinuierlich zu verbessern.
• Nachweisliche Erfahrung mit AI/ML-Konzepten und deren Anwendung in realen Daten-Workflows. • Über 5 Jahre berufliche Vollzeiterfahrung mit SQL und Python (mindestens 3 Jahre werden berücksichtigt). • Praktische Erfahrung mit Data-Orchestration-Tools wie Airflow, Metaflow oder Prefect. • Fundierte Kenntnisse von Cloud-Plattformen, mit Expertise in AWS (Azure von Vorteil). • Fundiertes Verständnis von Data-Compliance und Sicherheits-Best-Practices, insbesondere im Umgang mit sensiblen Kundendaten. • Erfahrung mit Tracing- und Monitoring-Frameworks wie Grafana, Sentry oder OpenTelemetry. • Erfahrung im Umgang mit strukturierten Daten (mit definierten Schemata und Regeln) sowie mit unstrukturierten Daten (die Konsolidierung und Organisation erfordern). • Wohnsitz in der EU und rechtliche Arbeitserlaubnis für die EU.
• Wettbewerbsfähiges Gehalt – Wir honorieren Ihre Fähigkeiten und Erfahrung mit einem Vergütungspaket, das Ihrem Wert entspricht. • 30 Tage bezahlter Urlaub – Nehmen Sie sich die Zeit, die Sie benötigen, um sich zu erholen und eine gesunde Work-Life-Balance zu erhalten. • Remote-First-Flexibilität – Arbeiten Sie von überall in der EU, mit der Möglichkeit zur persönlichen Zusammenarbeit in unseren Büros in Stuttgart oder Berlin (rollenabhängig). • Großzügiges Lern- und Weiterbildungsbudget – Wir investieren in Ihr Wachstum und stellen umfangreiche Ressourcen für Ihre persönliche und berufliche Weiterentwicklung bereit. • Wahl Ihrer Arbeitsausstattung – Ob Apple oder Microsoft, wir statten Sie mit der Hardware aus, die Sie benötigen, um erfolgreich zu sein.
Bewerbenvor 2 Monaten
Führen und Mentoring von ABAP-Entwicklern bei S/4HANA- und Plattformmigrationen unter Einsatz der Migrationssoftware von Natuvion.
vor 2 Monaten
11 - 50
Aufbau und Betrieb skalierbarer Azure-Datenplattformen und ETL/ELT-Pipelines; enge Zusammenarbeit mit Data Scientists zur Ermöglichung von Analytics und Machine Learning bei der paiqo GmbH
🇩🇪 Deutschland – Remote
⏰ Vollzeit
🟢 Junior
🟡 Mittelstufe
🚰 Dateningenieur
🚫👨🎓 Kein Abschluss erforderlich
🗣️🇺🇸🇬🇧 Englisch erforderlich
vor 2 Monaten
11 - 50
Senior Data Engineer, der Azure-Datenplattformen, CI/CD-Workflows und Governance für skalierbare BI-/AI-Lösungen entwirft; führt Teams und berät Kunden bei der paiqo GmbH.
🗣️🇺🇸🇬🇧 Englisch erforderlich
vor 2 Monaten
11 - 50
Führung der technischen Vision und Architektur für Azure-basierte Data- und Agentic-Plattformen bei der paiqo GmbH; Koordination von Projekten, Beratung von Kunden zur Digitalisierung sowie Mentoring von Data-Engineering-Teams.
🗣️🇺🇸🇬🇧 Englisch erforderlich
vor 2 Monaten
Dateningenieur, der Frachtverfolgungsmodelle und Back-End-Pipelines für Kplers maritime Handelsanalyse entwickelt.
🗣️🇺🇸🇬🇧 Englisch erforderlich