Gehalt: bis 90.000 € p.a. (je nach Erfahrung)
Arbeitsmodell: Hybrid (ca. 1 Tag Onsite pro Woche)
Standorte: Hamburg, Berlin, Hannover oder Leipzig (Präferenz Hamburg)
Über unseren Kunden
Unser Kunde ist ein etabliertes, inhabergeführtes Unternehmen aus dem Finanz- und Versicherungsumfeld mit bundesweiter Präsenz. Seit vielen Jahrzehnten steht das Haus für Stabilität, Verlässlichkeit und nachhaltiges Wachstum.
Aktuell wird die bestehende On-Premises-Data-Warehouse-Landschaft konsequent in eine moderne Microsoft-Fabric-Architektur überführt. Der Proof of Concept ist abgeschlossen, erste produktive Strecken sind implementiert. Ziel ist der nachhaltige Aufbau interner Expertise und einer zukunftsfähigen Datenplattform mit klarer technologischer Ausrichtung.
Das Data-Team besteht aus internen und externen Entwickler:innen und arbeitet eng mit den Fachbereichen zusammen. Gesucht wird eine erfahrene Persönlichkeit, die technische Exzellenz mit Ownership und Gestaltungswillen verbindet.
Deine Aufgaben
- Aufbau, Weiterentwicklung und technische Mitgestaltung der Microsoft-Fabric-Datenplattform
- Umsetzung durchgängiger End-to-End-Datenprozesse von der Quelle über Transformation und Lakehouse bis hin zur Bereitstellung für Reporting und Analytics
- Entwicklung und Implementierung von ETL-/ELT-Prozessen mit Fabric Data Factory (Pipelines, Dataflows Gen2, Notebooks)
- Produktiver Einsatz von PySpark in Fabric-Notebooks
- Konzeption und Pflege von Lakehouse-Strukturen, Delta-Tabellen und Medallion-Architekturen
- Performance-Optimierung von Pipelines, Spark-Jobs und Warehouse-Abfragen
- Nutzung von Azure DevOps Deployment Pipelines für strukturierte Entwicklungs- und Release-Prozesse
- Aktive Begleitung der Migration von einer klassischen MSSQL-DWH-Architektur in die Fabric-Welt
- Enge Abstimmung mit Fachbereichen hinsichtlich Anforderungen, Datenmodellen und Reporting-Bedarfen
- Fachliche Unterstützung und Enablement des Teams im Fabric-Umfeld
- Übernahme von Verantwortung in technischen Entscheidungsprozessen in enger Abstimmung mit dem Product Owner
Dein Profil
- Mehrjährige relevante Berufserfahrung im Data-Engineering-Umfeld (mindestens fünf Jahre)
- Fundierte Praxiserfahrung mit Microsoft Fabric oder vergleichbaren Azure-basierten Datenplattformen wie Synapse oder Azure Data Factory
- Nachweislich produktiver Einsatz von PySpark
- Praktische Erfahrung mit Azure DevOps Deployment Pipelines in mehreren Projekten
- Erfahrung in der Umsetzung durchgängiger End-to-End-Datenprozesse
- Sehr gute SQL-Kenntnisse sowie fundierte Erfahrung in Datenmodellierung
- Erfahrung in der Entwicklung von Power BI Dashboards
- Sehr gute Deutschkenntnisse in Wort und Schrift
- Idealerweise Erfahrung in der Migration von On-Premises-Architekturen in Cloud-Umgebungen
- Vorteilhaft sind Branchenkenntnisse im Finanz- oder Versicherungsumfeld
- Erfahrung in der fachlichen Begleitung oder dem Coaching von Kolleg:innen ist willkommen
- Ausgeprägte Eigeninitiative und hohe Verantwortungsbereitschaft
- Strukturierte, lösungsorientierte Arbeitsweise
- Fähigkeit, technische Lösungen im fachlichen Kontext zu denken und verständlich zu kommunizieren
Haben wir Dein Interesse geweckt? Dann melde Dich doch gern direkt bei mir:
#J-18808-Ljbffr