„Wer heute Software entwickelt, muss viel stärker wie eine Forscherin oder ein Forscher denken“, sagt Dr. Johannes Puschnig, Geschäftsführer der Quellcode 360 GmbH. „Die zentralen Fragen lauten nicht mehr: In welcher Sprache schreibe ich das?, sondern: Habe ich die richtigen Daten, das passende Modell und eine Architektur, die performant, nachvollziehbar und compliant ist?“
Entwicklung von KI Tools
Dieser Wandel in der Softwareentwicklung zeigt sich besonders deutlich im Bereich neuer KI-Tools: Statt ein einzelnes, übergrosses Modell zu trainieren, kombinieren erfolgreiche Teams Datenanalyse, statistische Methoden, Maschinelles Lernen und gezielte Experimente mit verschiedenen Modellansätzen. So lassen sich Modelle schlanker halten, Laufzeiten reduzieren und der Ressourcenverbrauch im Betrieb senken.
Fünf Kernkompetenzen, die heute den Unterschied machen
Auf Basis zahlreicher Projekte mit KMU, Startups und Forschungseinrichtungen definiert Quellcode 360 fünf Kernkompetenzen, die in der Softwareentwicklung besonders gefragt sind:
- Entwicklerinnen und Entwickler müssen Datensätze evaluieren, Verteilungen erkennen sowie statistische Tests einordnen können. Nur so lassen sich Verzerrungen, Messfehler und unpassende Inputdaten für neuronale Netze frühzeitig erkennen. Ein naturwissenschaftlicher oder mathematischer Hintergrund ist dabei ein klarer Vorteil.
- Ob klassischer Algorithmus, neuronales Netz oder regelbasierte Engine – entscheidend ist, dass Teams die Annahmen, Grenzen und Metriken ihrer Modelle kennen. Erst auf dieser Grundlage sind Benchmarks, saubere Experimente und nachvollziehbare Entscheidungen möglich.
- Angelehnt an naturwissenschaftliche Forschung arbeiten moderne Entwicklungsteams mit Hypothesen, kontrollierten Experimenten und reproduzierbaren Pipelines. Kleine, strukturierte Schritte ersetzen Trial-and-Error – mit klar nachvollziehbaren Modelländerungen. Dazu gehören Baselines, klare Erfolgskriterien und ein systematischer Vergleich unterschiedlicher Ansätze.
- Technische Zusammenhänge müssen so erklärt werden, dass Produktverantwortliche, Management und Fachabteilungen fundierte Entscheidungen treffen können. Dazu gehört etwa, Genauigkeit gegen Latenz, Energiebedarf oder Lizenzkosten abzuwiegen – und diese Trade-offs verständlich darzustellen. Entwickler werden damit mehr und mehr zu Partnern auf Augenhöhe statt zu reinen Umsetzungseinheiten.
- Mit der zunehmenden Regulierung von Daten- und KI-Anwendungen steigen die Anforderungen an Architekturentscheidungen: Wo werden Daten verarbeitet? Welche Modelle kommen zum Einsatz? Wie werden Entscheidungen protokolliert und auditierbar gemacht? Entwickelnde Teams müssen diese Fragen von Beginn an mitdenken, statt Compliance erst kurz vor dem Go-Live zu adressieren. Themen wie Datenschutz, Retention Policies, Nachvollziehbarkeit und der neue AI Act in der EU werden zum festen Bestandteil des Anforderungsprofils.
Gerade für spezialisierte Unternehmensanwendungen schneiden kleinere, gezielt trainierte Modelle oft besser ab als generalistische, sehr grosse Netze. Sie reagieren schneller, lassen sich einfacher warten und verursachen weniger Kosten in Betrieb und Hosting.
„Unnötig aufgeblasene Modelle sind aus technischer wie aus ökologischer Sicht problematisch“, erklärt Puschnig. „Sie verbrauchen mehr Energie, brauchen teure Hardware und führen zu träger Software. Schlanke, gut zugeschnittene Modelle passen viel besser zu den Realitäten von KMU und Startups – genau hier setzen wir in unseren Projekten an.“
Quellcode 360 setzt auf modulare Architekturen, in denen neuronale Netze, klassische Algorithmen und regelbasierte Komponenten gezielt kombiniert werden. Unternehmen profitieren so von skalierbaren Lösungen, bei denen einzelne Bausteine ausgetauscht werden können, ohne gesamte Systeme neu aufzubauen.
Fazit
Das Team der Quellcode 360 GmbH bringt langjährige Erfahrung in der wissenschaftlichen Softwareentwicklung mit und überträgt Methoden aus der Statistik, Physik und anderen Naturwissenschaften in die betriebliche Praxis. Dazu gehören experimentelles Arbeiten, reproduzierbare Pipelines und eine konsequente Dokumentation der Ergebnisse.
Ein besonderer Schwerpunkt liegt auf Projekten, in denen neuronale Netze für massiv datengetriebene Fragestellungen eingesetzt werden - von der Analyse komplexer Messdaten bis zur Automatisierung ganzer Prozessketten. Anstatt allein auf vorgefertigte Standard-Modelle zu setzen, entwickelt Quellcode 360 individuelle Algorithmen, die im Experiment und durch Benchmarking optimiert werden, ganz ähnlich wie in der naturwissenschaftlichen Forschung. Wissenschaftlicher Hintergrund ist daher ein klarer Vorteil in vielen KI-Projekten.