Data Engineer (Lambda)

Stelle nicht auf LinkedIn

vor 1 Monat

🇪🇺 Europa – Remote

⏳ Vertrag

🟡 Mittelstufe

🟠 Senior

🚰 Dateningenieur

🗣️🇺🇸🇬🇧 Englisch erforderlich

Bewerben
Logo of P2P Labs & P2P Tech Services

P2P Labs & P2P Tech Services

Crypto • Finance • B2B

P2P Labs & P2P Tech Services ist ein führender Anbieter von non-custodial Staking-Infrastruktur und -Technologie, die speziell auf Intermediäre wie Web3-Wallets, Exchanges und Custodians zugeschnitten ist. Seit der Gründung im Jahr 2018 ermöglicht das Unternehmen Nutzerinnen und Nutzern, Kryptowährungen wie Ethereum und Bitcoin mühelos zu staken, ohne eigene Nodes betreiben zu müssen. P2P Labs liefert Leistungen wie Staking-APIs, Data Analytics sowie Lösungen zur Verbesserung des Staking-Erlebnisses über mehrere Proof-of-Stake-Netzwerke hinweg.

11 - 50 Mitarbeiter

Gegründet 2022

₿ Crypto

💸 Finanzen

🤝 B2B

Beschreibung

• Entwurf, Pflege und Skalierung von Streaming-ETL-Pipelines für Blockchain-Daten. • Erstellung und Optimierung von ClickHouse-Datenmodellen und materialisierten Views für leistungsstarke Analysen. • Entwicklung und Pflege von Data Exportern unter Verwendung von Orchestrierungstools. • Implementierung von Daten-Transformationen und Decodierungslogik. • Aufbau und Verbesserung von Test-, Monitoring-, Automatisierungs- und Migrationsprozessen für Pipelines. • Sicherstellung der termingerechten Bereitstellung neuer Datenfunktionen im Einklang mit den Produktzielen. • Erstellung und Pflege klarer Dokumentation für Pipelines und Workflows. • Zusammenarbeit im Team zur Bereitstellung genauer, zuverlässiger und skalierbarer Datenservices, die die Lambda-App antreiben.

🎯 Anforderungen

• Mindestens 4 Jahre Erfahrung im Data Engineering (ETL/ELT, Datenpipelines, Streaming-Systeme). • Fundierte SQL-Kenntnisse mit spaltenorientierten Datenbanken (z. B. ClickHouse, Druid, BigQuery). • Praktische Erfahrung mit Streaming-Frameworks (z. B. Flink, Kafka oder ähnliche). • Solide Python-Kenntnisse für Data Engineering und Backend-Services. • Nachgewiesene Erfolgsbilanz bei termingerechter Bereitstellung von Pipelines und Features in Produktion. • Starker Fokus auf Automatisierung, Zuverlässigkeit, Wartbarkeit und Dokumentation. • Startup-Mentalität: Fähigkeit, das richtige Gleichgewicht zwischen Geschwindigkeit und Qualität zu halten. • Wünschenswert: • Erfahrung im Betrieb von ClickHouse im großen Maßstab (Performance-Tuning, Partitionierung, materialisierte Views) • Erfahrung mit CI/CD und automatisiertem Testing für Datenpipelines (z. B. GitHub Actions, dbt) • Kenntnisse in Multi-Chain-Ökosystemen (EVM und Nicht-EVM) • Vertrautheit mit Blockchain-/Krypto-Datenstrukturen (Transaktionen, Logs, ABI-Decodierung) • Beiträge zu Open-Source- oder Blockchain-Dateninfrastrukturprojekten

🏖️ Vorteile

• Vollständig remote • Vollzeit auf Vertragsbasis (unbefristeter Beratungsvertrag) • Wettbewerbsfähiges Gehaltsniveau in USD (Zahlung alternativ auch in Kryptowährung möglich) • Wellness- und Gesundheitsprogramm • Programm für psychische Gesundheit • Kostenübernahme für Weiterbildung, einschließlich Fremdsprachen- und beruflicher Weiterentwicklungskurse • Erstattungsprogramme für Ausstattung und Co-Working-Spaces • Teilnahme an internationalen Konferenzen und Community-Events (Auslandsaufenthalte möglich) • Positive und freundliche Kommunikationskultur

Bewerben

Ähnliche Jobs

vor 8 Monaten

Cloudacio

11 - 50

🤖 Künstliche Intelligenz

🤝 B2B

Werden Sie Teil von Cloudacio als Data Engineer und entwickeln Sie remote Datenpipelines sowie Big-Data-Lösungen.

🇪🇺 Europa – Remote

⏳ Vertrag

🟡 Mittelstufe

🟠 Senior

🚰 Dateningenieur

🗣️🇺🇸🇬🇧 Englisch erforderlich

Entwickelt von Lior Neu-ner. Ich freue mich über Ihr Feedback — kontaktieren Sie mich per DM oder per E-Mail support@remoterocketship.com