Stellen View

ID 5191
Sparte Business Analyse / Requirements Engineering
Titel Data Engineer (Focus Data Platforms)
Arbeitsort Mägenwil
Aufgaben Deine Hauptaufgaben • Als Data Engineer bist du das Herzstück unserer datengesteuerten Strategie und spielen eine entscheidende Rolle bei der Gestaltung unserer Datenlandschaft. • Entwicklung einer innovativen Datenplattform: Entwicklung und Betrieb unserer Cloud-basierten Self-Service-Datenplattform, die es den Produktteams ermöglicht, Datenprodukte innerhalb eines Data Mesh Frameworks zu erstellen. • Dynamische Daten-Pipelines: Entwickle Blaupausen für vielseitige Datenpipelines zur Aufnahme und Umwandlung von Daten, damit Softwareentwicklungsteams im gesamten Unternehmen ihre eigenen Pipelines erstellen können. • Nahtlose Datenintegration: Erstelle Verbindungen zu Betriebsdaten über Datenbanken und Nachrichtenwarteschlangen, um einen reibungslosen Datenfluss zu gewährleisten. • Umfassende Datenermittlung: Erleichtere den unternehmensweiten Datenzugriff durch die Implementierung eines robusten Datenkatalog-Tools. • Effiziente Datenveröffentlichung: Richte einfache Veröffentlichungsmechanismen ein und sorge für einen zuverlässigen Datentransfer in der gesamten Organisation. • Qualitätssicherung und Überwachung: Entwicklung und Pflege von Tools zur Sicherstellung der Datenqualität und zur Echtzeitüberwachung. • Beratende Zusammenarbeit: Arbeite als Berater in Teams, um Ingenieure bei der Entwicklung ihrer eigenen Datenprodukte zu unterstützen. Daten-Infrastruktur und -Architektur: • Dezentralisierte gemeinsame Datennutzung: Setze dich für eine Datenarchitektur ein, die den dezentralen Datenaustausch z. zwischen funktionsübergreifenden Teams fördert, und biete Best Practices und beratende Unterstützung an. • Skalierbare Datenplattform: Arbeite mit dem DevOps-Team zusammen, um eine skalierbare Datenplattform mit einer leistungsstarken Abfrage-Engine für grosse bereichsübergreifende Operationen aufzubauen und zu betreiben. • Vielseitige Infrastruktur: Entwickle eine umfassende Dateninfrastruktur, die sich sowohl auf lokale als auch auf Cloud- Umgebungen erstreckt. Betrieb und Optimierung: • Kontinuierliche Verbesserung: Überwache, analysiere und optimiere die Leistung, Sicherheit und Zuverlässigkeit unserer Dateninfrastruktur. Datenverwaltung und -qualität: • Föderierte Datenverwaltung: Bereitstellung von Fachwissen und Tools zur Unterstützung der dezentralen Datenverwaltung innerhalb der IT. • Integrität und Sicherheit: Wahrung der Datenintegrität und -sicherheit durch klare Governance-Richtlinien und Gewährleistung schriftlicher Datenverträge für jeden Datenproduktverbrauch. Datengestützte Entscheidungsfindung: Befähigung von Bereichsteams: Unterstützung der Bereichsteams beim Treffen fundierter Entscheidungen in ihren jeweiligen Bereichen. Innovation und Technologieforschung: • Den Trends immer einen Schritt voraus: Halte dich über die neuesten Entwicklungen im Bereich Data Engineering und maschinelles Lernen auf dem Laufenden und integriere neue Ansätze in unsere Prozesse. • Kontinuierliches Lernen: Verbessere deine Fähigkeiten mit Online-Kursen, die von Cloud-Anbietern angeboten werden. Stakeholder-Management und Zusammenarbeit: • Vertrauensvolle Partnerschaften: Arbeite eng mit Führungskräften aus den Bereichen Engineering Online Shops, Business Applications und Data Analytics zusammen, um technische und geschäftliche Ziele aufeinander abzustimmen. • Effektive Kommunikation: Kommuniziere klar und überzeugend auf allen Ebenen und setze dich für datengesteuerte Initiativen ein.
Anforderungen Ein Bachelor- oder Masterabschluss in Informatik oder einem verwandten Fachgebiet oder gleichwertige Erfahrung. Mindestens 5 Jahre Berufserfahrung in den Bereichen Data Engineering, Software Engineering oder verwandten Bereichen. Nachgewiesene Erfahrung im Aufbau von Datenplattformen, Data Lake Houses und Data Warehouses. Erfahrung in der Entwicklung von Datenpipelines und ETL/ELT-Prozessen. Beherrschung von Python und SQL (Java, JavaScript ist ein Plus). Vertrautheit mit Datenprodukten von Google Cloud Platform, AWS oder Azure (GCP-Erfahrung ist von Vorteil). Solides Verständnis von Datentechnologien und Konzepten wie Data Mesh, Lambda-Architekturen und Lakehouse-Architekturen. Erfahrung in agilen Umgebungen, unter Verwendung von Methoden wie Scrum oder Kanban. Starke analytische Fähigkeiten und die Fähigkeit, komplexe Konzepte klar zu kommunizieren. Leidenschaft für technologische Innovation und kontinuierliche Verbesserung. Beherrschung der deutschen und englischen Sprache für eine effektive Kommunikation. Aktives Engagement in der Datengemeinschaft und Beiträge zu Open-Source-Projekten.
Sprachen Deutsch C1