Du bist neugierig darauf zu erfahren ob Hadoop, Cassandra oder AWS Dynamo DB die performanteste Lösung ist, um Daten zu aggregieren? Für dich ist das beste Computer Game ein Cluster für Spark aufzubauen und die Performance zu optimieren? Du willst richtig tief eintauchen in die Welt der neusten Big Data Technologien und diese auch direkt in einem Big Data Umfeld testen? Dann komm als Data Engineer zu uns und stelle dich diesen spannenden Herausforderungen in echten Projekten.

Über uns

Wir von aifora sind ein stark wachsendes Start-up im Medienhafen Düsseldorf mit internationalem Fokus. Wir befähigen Händler und Marken, ihre Preise und Bestände kanalübergreifend zu optimieren und die zugrundeliegenden Prozesse zu automatisieren. Durch den Einsatz künstlicher Intelligenz werden auf der aifora Plattform Daten so verarbeitet, dass sie den maximalen Nutzen erzielen. Dies führt im Ergebnis zu einer deutlich höheren Profitabilität bei unseren Kunden. Zu diesen zählen Unternehmen wie KiK, Reno und P&C.

Wir bei aifora sind unkonventionell, arbeiten agil und selbstbestimmt, bleiben nie stehen und begeistern uns jeden Tag für Neues. Wir suchen Menschen, die wirklich etwas bewegen wollen und unsere Werte teilen. Bei aifora ist jeder wichtig und trägt zum großen Ziel bei.

Deine Aufgaben
  • Design einer Microservice Architektur und einer horizontal skalierenden Systemlandschaft für state-of-the-art Big Data Anwendungsfälle
  • Einsatz von Java, Scala, Python und SQL, um komplexe ETL/ELT Prozesse auf Basis aktueller Big Data Technologien zu realisieren
  • Optimierung der Performance von Big Data Applikationen und Forschung, wie Spark, Kafka, Hadoop (HDFS, Hive) und Cassandra zusammenarbeiten und skalieren können
  • Operationalisierung von Data Science Modellen für den produktiven Einsatz in einer Data Analytics Plattform, auf der Unternehmen aus dem Handel integriert mit ihren Daten, automatisierte Handlungsempfehlungen in Echtzeit erhalten
  • Enge Zusammenarbeit mit anderen Fachbereichen
Das bringst du mit
  • Abgeschlossenes (Fach-)Hochschulstudium der (Wirtschafts-)Informatik, Data Science, Mathematik oder eine vergleichbare Qualifikation
  • Hands-on Erfahrung mit dem Hadoop Big Data Ökosystem (Spark, Hive/Impala, HBase,Yarn), und dem Data Lake Paradigma
  • Fundierte Kenntnisse in funktionalen Programmiersprachen wie Python, Java und Scala sowie tiefgreifende Erfahrung mit Daten-Extraktion und -Transformation
  • Begeisterung für Entwicklung, du beherrschst Git mit geschlossenen Augen, achtest auf Code-Qualität und Testabdeckung und scheust dich nicht vor DevOps-Aufgaben
Das bieten wir dir
  • Start-up mit exponentiellem Wachstum
  • Attraktives Gehalt
  • Autonomes Arbeiten und sehr flache Hierarchie
  • Spannende Aufgabe in einer offenen Unternehmenskultur in einem internationalen Team
  • Moderner Arbeitsplatz im Medienhafen Düsseldorf mit gratis Getränken und Obst
  • Flexible Arbeitszeiten und Home Office
  • Permanentes Lernen und Weiterentwicklung, sowie Sprachunterricht
  • 30 Tage Urlaub, Zuschuss für ÖPNV und Altersvorsorge
  • Regelmäßige Team Events
Fühlst du dich angesprochen? Dann freuen wir uns auf deine aussagekräftige Online-Bewerbung mit Gehaltsvorstellung und frühestmöglichem Eintrittsdatum.

Details zu unserem Technology Stack