CITTI Handelsgesellschaft mbH & Co. KG
Real-Time Data Engineer (m/w/d)
Stellenbeschreibung:

    Deine Aufgaben

    Du bist maßgeblich an der Gestaltung und Umsetzung unserer Datenintegrationsprozesse beteiligt und arbeitest eng mit Kollegen (m/w/d) aus den Bereichen (Business) Data Engineering, Data Architecture, Data Analysis und den Fachbereichen zusammen, um Daten aus verschiedensten Quellsystemen effizient, sicher und nachvollziehbar in unser Data-Lakehouse zu integrieren.
    Entwicklung und Betrieb von Streaming-Datenpipelines: Du konzipierst, entwickelst und betreibst robuste und skalierbare Datenpipelines für die Verarbeitung von Echtzeitdaten, insbesondere auf Basis von Apache Kafka (Confluent) und Microsoft Fabric.
    Integration von Echtzeitdatenquellen: Du bindest neue Datenquellen an und sorgst dafür, dass Datenströme effizient und zuverlässig in unser Data-Lakehouse integriert werden.
    Datenmodellierung nach Data Vault: Du modellierst Daten nach dem Data-Vault-Ansatz und gestaltest aktiv den Aufbau sowie die Weiterentwicklung unseres zentralen Datenmodells. Dabei stellst du sicher, dass unsere Datenarchitektur flexibel, transparent und zukunftssicher bleibt. Mit Python entwickelst du unternehmenseigene Packages, die eine effiziente und wiederverwendbare Datenintegration nach Data Vault ermöglichen.
    Transformation und Harmonisierung von Streaming-Daten: Du entwickelst Python-basierte Lösungen zur Transformation, Anreicherung und Harmonisierung von Streaming-Daten und stellst sicher, dass diese in hoher Qualität und Geschwindigkeit (in Microsoft Fabric) bereitgestellt werden.
    Automatisierung und Standardisierung: Du arbeitest kontinuierlich an der Automatisierung und Standardisierung unserer Integrationsprozesse, um Effizienz, Qualität und Wartbarkeit zu steigern. Dabei bringst du eigene Ideen ein und setzt Best Practices im Bereich Data Engineering um.
    Monitoring, Qualitätssicherung und Fehlerbehebung: Du implementierst Monitoring- und Qualitätssicherungsmechanismen für Streaming-Prozesse, analysierst Fehlerquellen und entwickelst nachhaltige Lösungen zur Sicherstellung der Datenqualität und -verfügbarkeit.
    Zusammenarbeit und Wissenstransfer: Du arbeitest eng mit anderen Teams und Stakeholdern zusammen, teilst dein Wissen und unterstützt Kolleg:innen bei technischen Fragestellungen rund um Echtzeitdatenintegration.

    Dein Profil

    Du erfüllst nicht alle genannten Anforderungen? Kein Problem – bewirb dich trotzdem! Im persönlichen Gespräch finden wir gemeinsam heraus, ob wir zueinander passen. Wir suchen Menschen, die mit Begeisterung und Neugierde an neue Aufgaben herangehen. Wenn du motiviert bist, dich in neue Tools und Technologien einzuarbeiten, bist du bei uns genau richtig. Fehlende Kenntnisse sind kein Hindernis – wir unterstützen dich mit Schulungen und ermöglichen dir, dich fachlich und persönlich weiterzuentwickeln. Entscheidend ist für uns deine Lernbereitschaft, dein Engagement und der Wunsch, gemeinsam im Team etwas zu bewegen.

    • Du hast eine abgeschlossene Ausbildung / ein abgeschlossenes Studium im Bereich (Wirtschafts-)Informatik, Mathematik, Naturwissenschaften oder eine vergleichbare Qualifikation.
    • Erfahrung in der Datenintegration, idealerweise im Cloud-Umfeld (z. B. Microsoft Fabric, Azure, AWS, GCP).
    • Erfahrung in der Integration und Verarbeitung von Echtzeitdaten, idealerweise mit Apache Kafka (Confluent) und modernen Cloud-Technologien.
    • Fundierte Kenntnisse in der Entwicklung von Streaming-Datenpipelines, vorzugsweise mit Microsoft Fabric und Python.
    • Erfahrung in der Anbindung und Transformation von Datenquellen sowie in der Datenmodellierung nach Data Vault.
    • Sicherer Umgang mit Streaming-Architekturen.
    • Du arbeitest strukturiert, lösungsorientiert und eigenverantwortlich. Du bist teamfähig, kommunikationsstark und bringst gerne neue Ideen ein.
    • Sehr gute Englischkenntnisse in Wort und Schrift sind für uns ein Muss, da wir international arbeiten. Deutschkenntnisse sind ein Plus, aber keine Voraussetzung.

    Unser Angebot

    Urlaubs- und Weihnachtsgeld, vermögenswirksame Leistungen
    Die Möglichkeit, aktiv an der Modernisierung und dem Aufbau einer zukunftsweisenden Datenplattform mitzuwirken.
    Vielfältige Möglichkeiten zur fachlichen und persönlichen Weiterentwicklung, z. B. durch Trainings, Zertifizierungen und den Austausch mit Experten (m/w/d).
    Flexible Arbeitszeiten, die Möglichkeit zum mobilen Arbeiten und eine moderne Arbeitsumgebung.
    Attraktive Vergütung und umfangreiche Sozialleistungen.
    Zuschüsse zur betrieblichen Altersvorsorge
    30 Tage Urlaub
    Personalkantine und kostenfreie Mitarbeiterparkplätze
    Kooperation mit Fitness-Studios, u. a. Hansefit
    Ein junges, motiviertes, interdisziplinäres Team mit viel Gestaltungsspielraum und kurzen Entscheidungswegen.
    Bike-Leasing mit attraktiven Konditionen
    Corporate Benefits: Mitarbeiterrabatte für bekannte Marken und Anbieter (z. B. Rabatte für Reisen)
    perfekt angebunden durch Veloroute 10, eigene Bahnstation und direkten Autobahnzubringer
    direkter Mall-Zugang mit über 80 Stores, Ärztezentrum und Mitarbeiterrabatt für den Einkauf im CITTI Markt
    Wir sponsern Ihren Arbeitsweg mit dem NAH.SH-Jobticket bzw. Deutschland-Ticket.

NOTE / HINWEIS:
EnglishEN: Please refer to Fuchsjobs for the source of your application
DeutschDE: Bitte erwähne Fuchsjobs, als Quelle Deiner Bewerbung
Stelleninformationen
  • Typ:

    Vollzeit
  • Arbeitsmodell:

    Hybrid
  • Kategorie:

    Development & IT
  • Erfahrung:

    Erfahren
  • Arbeitsverhältnis:

    Angestellt
  • Veröffentlichungsdatum:

    04 Okt 2025
  • Standort:

    Kiel
KI Suchagent
AI job search

Möchtest über ähnliche Jobs informiert werden? Dann beauftrage jetzt den Fuchsjobs KI Suchagenten!