Stellenbeschreibung:
Projektbeschreibung
Die Leistungen des Auftragnehmers (Dienstleisters) werden für das Programm DB360 erbracht. Dieses hat folgenden Inhalt: DB360 ist eine cloudnative end2end-Experten-Umgebung für Big Data und Machine Learning und ermöglicht Analysen von Fahrzeug-Daten durch verknüpfte Datenquellen (technische und betriebswirtschaftliche Daten).
Analyse von Ist Zuständen (z.B. Datenpipelines, Datensampeln, CI/CD Systeme, Dashboarding)Ausarbeiten von Zielzuständen (z.B. Datenpipelines, Generische Datenmodelle, Dashboarding)Erarbeitung von Lösungsoptionen um vom Ist- zum Zielzustand zu gelangen, inkl. der Durchführung von Workshops (z.B. Analytics POCs)Bewertung und vorstellen von Lösungsoptionen (z.B. Analytics POCs)Analyse und Gestaltung der cloudspezifischen Business Architektur (z.B. Dashboarding, Analytics Use-Cases)Organisation und Durchführung von themenspezifischen Workshops zur Präsentation von Projekt-/Arbeitsergebnissen (z.B. im Kontext von IoT, Docker, Dashboarding)Erstellung entsprechender Dokumentation der Arbeitsergebnisse (z.B. Konzepte in Confluence, Code in den Repositories)Pipeline-Entwicklung: Entwicklung von Daten Pipelines zur Berechnung von KPIs und Verknüpfung von unterschiedlichen Datenquellen auf Basis von Python, pySpark und SQLFachliche Unterstützung im SCRUM Team, Teilnahme an Refinements, Plannings, Reviews, fachliche Retros Exploration: Data Exploration von neuen Datenquellen Dashboarding: Entwicklung von Daten Dashboards zur Analyse von technischen DatenMethodenentwicklung: Implementierung von Methoden zur tiefgehenden Analyse von Logistik und Fahrzeugdaten im Kontext CBM, Digital Twins, Energiedaten
Skills
Muss Anforderung:Erfahrung in der Entwicklung von AnalysePipelines mittels der für die geforderte Pipeline-Entwicklung erforderlichen Tools und Programmiersprachen. (SQL, Python, ...) - min 2 Jahre ErfahrungNachgewiesene Kenntnisse im Aufbau und/oder in der Integration von Data Science in fachliche Prozesse/Abläufe/Anwendungen von Use Cases - min 5 Jahre Erfahrung Projekterfahrung: Projekterfahrungen in Projekten zur datengestützten Berechnung von Fahrzeug- und Energiedaten KPIs im Eisenbahnsektor - min 4 Jahre Erfahrung SW Entwicklung: Berufserfahrung in der SW-Entwicklung (z.B. GIT, CICD, Testing) - min 2 Jahre Erfahrung Soll Anforderung:Agiles Arbeiten: Kenntnisse agiler & skalierter ArbeitsmethodenBahnerfahrung: Erfahrung im Umgang mit typischen Projekten und Daten in der Transport- und Logistikbranche, insbesondere im Umgang mit unterschiedlichen Datenformaten, Qualitätseinschränkungen und VerarbeitungsprozessenKenntnisse der jeweils anderen Disziplin (Data Science Data Engineering): Erfahrung im Bereich Data Engineering und der Anwendung moderner Cloud Architekturen sowie der End-to-End Operationalisierung von ETL-/DatenstreckenTechstack AWS: Praktische Erfahrung mit AWS ToolsTechstack IDE: Praktische Erfahrung mit IDE: pyCharm
NOTE / HINWEIS:
EN: Please refer to Fuchsjobs for the source of your application
DE: Bitte erwähne Fuchsjobs, als Quelle Deiner Bewerbung