Data Engineer: Plattform & Data Pipelines

Stellenbeschreibung:

Data Engineer: Plattform & Data Pipelines

Bechtle Schweiz AG, Zweigniederlassung Deutschschweiz, Mägenwil – Vacant since | Number of jobs: 1 | Location: 6340 Baar (ZG) | 100% | Employment start: Immediately | Employment duration:

Die Bechtle Schweiz AG unterstützt einen Enterprise‑Kunden beim Neuaufbau der Datenbasis hinter Beschaffungs‑Workflows, Automatisierung und neuen KI‑gestützten Fähigkeiten. Im Rahmen dieses Projekts suchen wir einen Data Engineer, der beim Aufbau eines funktionalen Frameworks unterstützen kann, welches die Erfassung, Aufbereitung, Verwaltung und zuverlässige Bereitstellung von Daten über die gesamte Plattformlandschaft des Kunden hinweg regelt.

Es handelt sich um eine hands‑on Engineering‑Rolle in einem dynamischen, schnelllebigen Umfeld beim Kunden. In dieser Funktion arbeiten Sie im Bechtle‑Mandat daran, report‑zentrierte Logik durch robuste Datenpipelines und gemeinsam genutzte Datensätze zu ersetzen, auf die sich die gesamte Plattform des Kunden verlassen kann.

IHRE AUFGABEN

  • Aufbau und Betrieb von Ingestion‑Pipelines aus operativen Systemen, Dateien, APIs und Events
  • Design von Batch‑ und Streaming‑Pipelines, die resilient, beobachtbar und testbar sind
  • Normalisierung, Anreicherung und Transformation von Rohdaten zu wiederverwendbaren, klar strukturierten Datensätzen
  • Durchsetzung von Schemas, Validierung von Eingaben und Management von Schema‑Evolution
  • Implementierung von Datenqualitätsprüfungen und frühzeitiges Sichtbarmachen von Problemen
  • Sicherstellung der Mandanten‑ und Line‑of‑Business‑Trennung innerhalb der Datenpipelines
  • Enge Zusammenarbeit mit dem Data Architect unseres Kunden zur Umsetzung von Modellierungs‑ und Governance‑Standards
  • Unterstützung bei der Verlagerung von Logik aus Dashboards in gemeinsam genutzte Datenpipelines
  • Ausbalancieren von Liefergeschwindigkeit mit Zuverlässigkeit und langfristiger Wartbarkeit

EINGESETZTE TECHNOLOGIEN UND METHODIKEN

  • Azure, Databricks, BigID und weitere
  • Data ingestion Frameworks und Transformation Pipelines
  • Lakehouse-style Storage und Processing Layers
  • Structured und Semi-Structured Source Systeme
  • Data Validation, Quality und Monitoring Tooling
  • Access Control Concepts applied at the data layer
  • Downstream Consumers, wie z.B. Applications, Analytics und Automation

ANFORDERUNGEN

  • Erfahrung im Aufbau produktiver Datenpipelines
  • Fundiertes Verständnis von Datenmodellierungs‑ und Transformationsprinzipien
  • Vertrautheit mit Schema‑Management, Datenvalidierung und Fehlerbehandlung
  • Fähigkeit, über klassische BI‑ und Reporting‑Use‑Cases hinauszudenken
  • Sicheres Arbeiten in Umfeldern mit sich schnell ändernden Anforderungen
  • Mindset für den Aufbau langlebiger, wiederverwendbarer Daten‑Fundamente

Weitere Details

  • Work location 6340 Baar (ZG)
  • Additional information on the place of work Hybrides Arbeitsmodell nach Absprache.
  • Workload 100%
  • Employment start Immediately
  • Employment duration
  • German Orally: Basic knowledge; Written: Basic knowledge
  • English Orally: Very good knowledge; Written: Very good knowledge
  • By online Online form

#J-18808-Ljbffr
NOTE / HINWEIS:
EnglishEN: Please refer to Fuchsjobs for the source of your application
DeutschDE: Bitte erwähne Fuchsjobs, als Quelle Deiner Bewerbung

Stelleninformationen

  • Veröffentlichungsdatum:

    13 Mär 2026
  • Standort:

    WorkFromHome

    Einsatzort:

    Gerolfingen
  • Typ:

    Vollzeit
  • Arbeitsmodell:

    Vor Ort
  • Kategorie:

  • Erfahrung:

    2+ years
  • Arbeitsverhältnis:

    Angestellt

KI Suchagent

AI job search

Möchtest über ähnliche Jobs informiert werden? Dann beauftrage jetzt den Fuchsjobs KI Suchagenten!