
HR Tech • SaaS • Fintech
CloudPay ist ein globales Unternehmen für Lohn- und Gehaltsabrechnung sowie Zahlungsdienstleistungen, das einheitliche, cloud-basierte Managed-Payroll-Services und Gehaltszahlungslösungen für multinationale Arbeitgeber anbietet. Die Plattform integriert sich mit großen HCM-Systemen (Workday, SAP SuccessFactors, Oracle, HiBob) und bietet globale Lohn- und Gehaltsabrechnungsverarbeitung, Zahlungen, Bezahlung auf Abruf, Unterstützung bei der Einhaltung von Vorschriften, APIs und KI-gestützte Automatisierung der Lohn- und Gehaltsabrechnung. CloudPay richtet sich an Unternehmen und mittelständische Unternehmen mit einem SaaS-Bereitstellungsmodell und umfassender Expertise in globalen Zahlungen und landesspezifischen Gehaltsabrechnungen.
1001 - 5000 Mitarbeiter
Gegründet 1996
👥 HR Tech
☁️ SaaS
💳 Fintech
vor 22 Tagen
🗣️🇺🇸🇬🇧 Englisch erforderlich

HR Tech • SaaS • Fintech
CloudPay ist ein globales Unternehmen für Lohn- und Gehaltsabrechnung sowie Zahlungsdienstleistungen, das einheitliche, cloud-basierte Managed-Payroll-Services und Gehaltszahlungslösungen für multinationale Arbeitgeber anbietet. Die Plattform integriert sich mit großen HCM-Systemen (Workday, SAP SuccessFactors, Oracle, HiBob) und bietet globale Lohn- und Gehaltsabrechnungsverarbeitung, Zahlungen, Bezahlung auf Abruf, Unterstützung bei der Einhaltung von Vorschriften, APIs und KI-gestützte Automatisierung der Lohn- und Gehaltsabrechnung. CloudPay richtet sich an Unternehmen und mittelständische Unternehmen mit einem SaaS-Bereitstellungsmodell und umfassender Expertise in globalen Zahlungen und landesspezifischen Gehaltsabrechnungen.
1001 - 5000 Mitarbeiter
Gegründet 1996
👥 HR Tech
☁️ SaaS
💳 Fintech
• Weiterentwicklung und Ausbau der bestehenden Databricks-basierten Datenplattform des Unternehmens zur Verbesserung von Performance, Skalierbarkeit und Governance. • Entwurf und Implementierung von Datenarchitekturen basierend auf dem Medallion-Framework (Bronze, Silver, Gold), um saubere, nachvollziehbare und wiederverwendbare Datensätze zu ermöglichen. • Verwaltung und Ausbau des Unity Catalog für konsistente Daten-Governance, Nachverfolgung der Datenherkunft (Lineage), Zugriffskontrolle und Sicherheitskonformität. • Entwicklung und Optimierung von Datenaufnahme- und Verarbeitungspipelines mit Apache Spark, Kafka und RabbitMQ für Echtzeit- und Batch-Workloads. • Architektur für nahtlose Datenflüsse über Snowflake, BigQuery, MySQL, PostgreSQL und MongoDB hinweg. • Integration und Harmonisierung von Produktanalyse-Daten aus Plattformen wie Firebase Analytics und Pendo. • Unterstützung von nachgelagerten BI- und Analyse-Tools wie Sisense und Power BI durch gut modellierte, leistungsfähige Datenlayer. • Etablierung und Pflege von Datenqualitäts-, Metadatenmanagement- und Observability-Frameworks. • Sicherstellung, dass alle Datenarchitekturen und -abläufe den Anforderungen von ISO 27001, SOC 2 Type II und der DSGVO entsprechen, wobei Sicherheit und Compliance in das Design integriert werden. • Zusammenarbeit mit Engineering- und Fachbereichen, um Datenstrategien mit den Zielen der Organisation in Einklang zu bringen. • Kontinuierliche Bewertung und Empfehlung von Verbesserungen für Dateninfrastruktur, Tools und Best Practices.
• Bachelor- oder Masterabschluss in Informatik, Data Engineering, Informationssystemen oder einem verwandten Fachgebiet. • Fundierte Erfahrung in Datenarchitektur oder Data Engineering mit nachgewiesener Führung bei Aufbau oder Weiterentwicklung von Databricks-basierten Ökosystemen. • Expertise in Apache Spark (PySpark oder Scala) und im Umgang mit Databricks Unity Catalog. • Praktische Erfahrung im Entwurf und Management von Datenmodellen nach dem Medallion-Architekturprinzip. • Ausgeprägter Hintergrund in Streaming- und Messaging-Systemen wie Kafka und RabbitMQ. • Kenntnisse in Data Warehouses (Snowflake, BigQuery) sowie relationalen und NoSQL-Datenbanken (MySQL, PostgreSQL, MongoDB). • Erfahrung in der Datenintegration aus SaaS-Quellen wie Firebase Analytics und Pendo. • Solides Verständnis von Daten-Governance, Datenschutz und Sicherheitsframeworks im Einklang mit ISO 27001, SOC 2 und DSGVO. • Vertrautheit mit BI- und Visualisierungstools wie Sisense und Power BI sowie mit effektivem Datenmodellieren für Analytics. • Starke Fähigkeiten in architektonischem Denken, Dokumentation und Kommunikation.
• Wettbewerbsfähige Leistungen für die Stelle mit Standort in Spanien oder Polen.
Bewerbenvor 24 Tagen
Data Engineer, der zuverlässige und skalierbare Datensysteme für Screenverse im Bereich Digital Out of Home entwickelt. Arbeitet teamübergreifend zur Verbesserung der Datenqualität und liefert wirkungsvolle Datenlösungen für unterschiedliche Fachbereiche.
🗣️🇺🇸🇬🇧 Englisch erforderlich
vor 1 Monat
Senior Data Engineer, der die Dateninfrastruktur für Polars Finanzoperationen entwirft, aufbaut und skaliert. Arbeitet eng mit Finance- und Produktteams zusammen, um verlässliche Datenverarbeitung und Governance sicherzustellen.
🗣️🇺🇸🇬🇧 Englisch erforderlich
vor 2 Monaten
Entwerfen und Pflegen von ETL-Pipelines und OLAP-Systemen für Playsons iGaming-Analytics. Sicherstellung der Datengenauigkeit, Datensicherheit und BI-Integrationen.
🗣️🇺🇸🇬🇧 Englisch erforderlich
vor 3 Monaten
Dateningenieur bei einem Online-Casino- und Sportwettenanbieter, verantwortlich für die Verwaltung von Snowflake-Pipelines und ELT-Tools. Entwirft skalierbare und sichere Datenintegrationen unter Verwendung von Python, SQL, Airflow und DBT.
🇪🇺 Europa – Remote
💰 €160.000.000 Post-IPO Equity im 2020-12
⏰ Vollzeit
🟠 Senior
🔴 Experte
🚰 Dateningenieur
🗣️🇺🇸🇬🇧 Englisch erforderlich
Airflow
Amazon Redshift
AWS
Azure
BigQuery
Cloud
Docker
Google Cloud Platform
Hadoop
Kubernetes
Python
Spark
SQL