Data Architect / Data Engineer / Integration Engineer (m/w/d)

Standort

Zentrale in Hanau-Steinheim

Deine Aufgaben

Deine Mission beginnt jetzt: Tauche ein in unsere dynamische Datenwelt und gestalte die Zukunft mit! Wir suchen keine/n gewöhnliche/n Kolleg:in, sondern einen Daten-Visionär (m/w/d), der/die unsere Systemlandschaft revolutioniert und unser volles Datenpotenzial entfesselt.

Bei uns baust du nicht nur Brücken, sondern schaffst skalierbare Datenautobahnen zwischen unseren verschiedenen Systemen (ERP, CRM uvm.). Du bist unser ETL-Experte (m/w/d), der/die komplexen Datenflüsse orchestriert und für einen reibungslosen Informationsaustausch sorgt. Für dich sind Datenmodelle keine trockenen Schemata, sondern Schatzkarten, die uns zu wertvollen Erkenntnissen führen. Neben klassischen Data-Warehouse-Strukturen bringst du unsere Plattform in Richtung Echtzeitfähigkeit: Mit Apache Flink verarbeitest du Event- und Streaming-Daten (z. B. aus Schnittstellen, Log- oder Prozessdaten) nahezu in Echtzeit und ermöglichst operative Analysen und datengetriebene Prozesse.

Dein Herz schlägt für die Harmonie von Datenstrukturen und du weißt, wie man sie zum Klingen bringt!

Dein Profil: Wir suchen dich, wenn du...

  • Ein abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Datenwissenschaft oder eine vergleichbare Qualifikation mitbringst.
  • Erfahrung in der Gestaltung und Optimierung von Datenarchitekturen hast oder bereits als Data Architect, Data Engineer, Integration Engineer oder DevOps Engineer (m/w/d) gearbeitet hast.
  • Fundierte Kenntnisse in Datenbanktechnologien, Datenmodellierung und Datenintegration besitzt.
  • Eine Prise Humor mitbringst und auch komplexe Datenprobleme mit einem Lächeln lösen kannst.
  • Über magische MSSQL-Kenntnisse verfügst und die Kunst der ETL-Magie beherrscht, um unsere System-Schichten damit perfekt zu verbinden.
  • Erfahrung mit Workflow-Orchestrierung, (idealerweise Apache Airflow) sowie Verständnis für CI/CD-gestützte Datenpipelines.
  • Kenntnisse in Streaming- oder Event-Processing-Architekturen (z. B. Apache Flink, Kafka oder vergleichbare Technologien) sind von Vorteil.
  • Grundverständnis moderner Data-Platform-Konzepte (Data Lake, Lakehouse, Batch- & Streaming-Verarbeitung).
  • Fließende Deutsch- und Englischkenntnisse (in Wort und Schrift) mitbringst.

Deine Benefits: Was dich bei uns erwartet...

Werde Teil eines Teams von Gleichgesinnten, die genauso leidenschaftlich für Daten brennen wie du! Bei uns hast du die Freiheit, deine Ideen einzubringen und unsere Datenlandschaft aktiv mitzugestalten.

  • Sicherheit & Freiraum: Unbefristete Festanstellung, 30 Tage Urlaub, bis zu 5 Freizeitausgleichstage und Sonderurlaub für besondere persönliche Ereignisse.
  • Entwicklung & Innovation: Vielseitige Trainings- und Schulungsangebote für deine persönliche und fachliche Weiterentwicklung in einem technisch fortschrittlichen Umfeld.
  • Flexibilität & Work-Life-Balance: Flexible Arbeitszeiten, die Möglichkeit zum mobilen Arbeiten und vielfältige Work-Life-Balance-Angebote.
  • Umfassende Zusatzleistungen:

    • Betriebliche Altersvorsorge

    • Vermögenswirksame Leistungen
    • Großzügige Empfehlungsprämien
    • Firmenrad-Leasing
    • Attraktive Mitarbeiterangebote
    • Und vieles mehr, das dein Arbeitsleben bereichert!

Bereit für deine Daten-Mission? Dann bewirb dich jetzt und werde Teil unseres innovativen Teams!

Dein neuer Arbeitgeber - wego vti

Wir von wego vti sind 1.300 motivierte Kolleg:innen aus dem spezialisierten Baustoff-Fachhandel an über 50 Standorten in Deutschland. Als marktführender spezialisierter Fachhändler für Trockenbau, Dämmstoffe, Boden- und Fassadensysteme setzen wir uns täglich für unsere Kunden ein, um bei deren Bauvorhaben und -projekten mit unserer langjährigen Erfahrung beratend zur Seite zu stehen und neue Lösungen zu schaffen.

Wir bitten Profilzusendungen und Kontaktaufnahmen durch Personalagenturen zu unterlassen.