Eine Sinuswelle läuft über den Bildschirm. 10.000 Datenpunkte pro Sekunde, sauber getaktet wie ein Metronom. Ein KFZ-Meister in einer Bochumer Werkstatt schaut auf die Kurve und sieht — eine Kurve. Sauber. Rhythmisch. Beruhigend. Und dann, für exakt 3,2 Millisekunden, zuckt die Linie. Nicht dramatisch. Nicht offensichtlich. Eher wie ein Wimpernschlag in einer Menschenmenge. Der Meister blinzelt. Die Maschine nicht.
In diesen 3,2 Millisekunden steckt die Information, dass ein Einspritzventil beginnt, ungleichmässig zu öffnen. In sechs Monaten wird es ausfallen. Die Information war da — sie war nur in 600.000 Datenpunkten pro Minute versteckt, in einem Zeitfenster kürzer als ein Lidschlag.
Kurzversion: Ainomaly ist ein Echtzeit-System für Anomalie-Erkennung in Messdaten. AI + Anomaly = Ainomaly. Vier Detection-Methoden im Ensemble, Erklärungen auf drei Ebenen, Konfidenz-Scores statt falscher Sicherheit. Gebaut als Open-Source-Modul für die aiOS-Plattform.
Das Problem mit dem menschlichen Auge
Werkstätten messen seit Jahrzehnten mit Oszilloskopen. Die Geräte sind präzise, die Daten kristallklar. Und trotzdem werden Fehler übersehen. Nicht weil Mechaniker schlecht sind — sondern weil das menschliche visuelle System für diese Aufgabe nicht gebaut wurde.
Ein Oszilloskop bei 10 kHz Abtastrate produziert 600.000 Datenpunkte pro Minute. Kein Mensch kann diese Menge visuell erfassen und gleichzeitig subtile Muster erkennen, die von der Norm abweichen. Wir sehen die grobe Form. Wir sehen dramatische Ausreißer. Aber die schleichende Phasenverschiebung um 0,3 Grad — eine Steuerkette, die sich langsam längt — rutscht zuverlässig durch das Raster der Wahrnehmung.
Das Auge ermüded nach 30 Minuten konzentrierter Signalbeobachtung. Es ist subjektiv — zwei Mechaniker sehen unterschiedliche Dinge im selben Signal. Und es blinzelt. 15 bis 20 Mal pro Minute. Bei jedem Blinzeln passieren 500 Datenpunkte am Bildschirm vorbei, unsichtbar.
Das menschliche Auge
Erfasst Formen und grobe Muster. Ermüdung nach 30 Minuten. Übersieht subtile Freqünzverschiebungen. Subjektiv: zwei Mechaniker, zwei Befunde.
Ainomaly
Prüft jeden einzelnen Datenpunkt. Keine Ermüdung. Erkennt Verschiebungen im Sub-Grad-Bereich. Objektiv: gleiche Daten, gleiches Ergebnis. Immer.
Erkennen. Einstufen. Erklären.
Der Name ist Programm. AI + Anomaly = Ainomaly. Ein System, das Echtzeit-Messdaten überwacht und automatisch erkennt, wenn etwas von der Norm abweicht. Nicht nach einer Analyse. Nicht nach einem Export. Sofort, während die Daten fließen.
Drei Operationen laufen gleichzeitig ab, in jeder Millisekunde des Datenstroms:
Erkennen. Jeder Datenpunkt wird gegen statistische Modelle und trainierte ML-Modelle geprüft. Weicht der aktuelle Wert signifikant vom erwarteten Muster ab? Ändert sich ein Trend? Taucht eine bekannte Fehlersignatur auf?
Einstufen. Nicht jede Auffälligkeit ist ein Problem. Ein kurzer Spike kann thermisches Rauschen sein — irrelevant. Ein langsam steigender Offset deutet auf Verschleiss hin — relevant. Ainomaly klassifiziert in drei Stufen: Info, Warning, Critical. Der Unterschied zwischen Fehlalarm und Frühwarnung liegt in dieser Unterscheidung.
Erklären. Eine rote Markierung ohne Kontext ist nutzlos. Ainomaly sagt nicht nur dass etwas auffällig ist — sondern beschreibt den Befund in drei Ebenen wachsender Tiefe, von der Dashboard-Zusammenfassung bis zur technischen Begründung.
Live-Demo: Anomaly Detection
Wähle ein Szenario. Beobachte, wie das System in Echtzeit reagiert.
Kurzfassung: Der Name ist Programm. Drei Operationen laufen gleichzeitig ab, in jeder Millisekunde des Datenstroms: Live-Demo: Anomaly Detection
Vier Methoden, ein Ensemble
Anomalie-Erkennung ist kein einzelner Algorithmus. Es ist ein Zusammenspiel verschiedener Methoden, die verschiedene Arten von Abweichungen finden. Ainomaly kombiniert vier Ansätze — weil keine einzelne Methode alle Fälle abdeckt.
Z-Score
Statistisch. Wie weit weicht ein Wert vom Mittelwert ab, gemessen in Standardabweichungen? Simpel, schnell, robust. Findet offensichtliche Ausreißer in Mikrosekunden. Schwäche: übersieht subtile Trends.
Isolation Forest
Machine Learning. Baut Entscheidungsbäume, die versuchen, Datenpunkte zu isolieren. Anomalien lassen sich schneller isolieren als normale Werte — sie sind die Ausreißer im Feature-Raum. Braucht kein Labeling.
Autoencoder
Deep Learning. Lernt die normale Signalform durch Kompression und Rekonstruktion. Wenn der Rekonstruktionsfehler steigt, weicht das aktuelle Signal von der gelernten Norm ab. Findet komplexe, multivariate Muster.
Pattern Matching
Signaturbasiert. Bekannte Fehlermuster als Referenzen hinterlegt. Ainomaly vergleicht laufend gegen die Bibliothek. Sofortige Zuordnung: "Das Muster entspricht einem verschlissenen Injektor." Findet nur Bekanntes.
Z-Score übersieht subtile Freqünzverschiebungen. Isolation Forest hat Schwächen bei stark korrelierten Features. Autoencoder brauchen ausreichend Trainingsdaten. Pattern Matching erkennt nur, was es kennt. Zusammen als Ensemble decken sie ein Spektrum ab, das kein einzelner Ansatz erreicht — die Stärke des einen kompensiert die Schwäche des anderen.
Kurzfassung: Anomalie-Erkennung ist kein einzelner Algorithmus. Machine Learning. Signaturbasiert.
Drei Ebenen der Erklärbarkeit
Ein Rauchmelder piept und du weißt: etwas brennt. Für Diagnose reicht das nicht. Ein Mechaniker muss verstehen warum das System Alarm schlägt — sonst ist es eine Blackbox, der niemand vertraut. Ainomaly baut Erklärbarkeit als Pflicht in jede Erkennung ein.
Ebene 1 — Was
"Anomalie erkannt in Kanal 1 bei Timestamp 14:32:07.234. Severity: Warning." Die nackte Faktenlage. Genügt für Dashboards, Logs und automatisierte Alerts.
Ebene 2 — Warum
"Z-Score: 4.7 (Schwelle: 3.0). Isolation-Forest-Score: 0.89. Autoencoder-Rekonstruktionsfehler: 3.2x über Normal." Die technische Begründung. Für Experten, für Audit-Trails, für Nachvollziehbarkeit.
Ebene 3 — Was bedeutet das
"Die Phasenbeziehung zwischen Kurbelwelle und Nockenwelle zeigt Verschleiss. Vergleichbare Muster traten bei Laufleistungen über 180.000 km auf. Empfehlung: Steuerkette prüfen lassen." Menschenlesbar. Vom LLM formuliert, auf den statistischen Befunden basierend.
Ebene 3 ist die schwierigste und die wichtigste. Hier arbeiten zwei Systeme zusammen: Die statistischen und ML-Modelle erkennen. Ein Sprachmodell übersetzt die Erkenntnis in Alltagssprache. Die KI diagnostiziert nicht — sie beschreibt, was die Mathematik gefunden hat. Der Mensch entscheidet.
Das Vertrauensproblem
Jede KI-Anwendung hat ein Vertrauensproblem. Bei Ainomaly ist es existenziell. Ein falscher Alarm — "Steuerkette kritisch" bei einem intakten Motor — kostet den Kunden tausende Euro und die Werkstatt ihre Reputation. Ein übersehener Fehler kostet Sicherheit.
Die Lösung ist nicht bessere KI. Die Lösung ist ehrliche KI.
Ainomaly-Prinzip: Lieber unsicher als falsch. Jede Erkennung trägt einen Konfidenz-Score. Unter 70 Prozent wird keine automatische Empfehlung ausgesprochen — stattdessen: "Auffälligkeit erkannt. Manuelle Prüfung empfohlen." Die KI darf unsicher sein. Sie darf nicht lügen.
Dazu kommt Transparenz. Jede Erkennung ist nachvollziehbar: Welcher Algorithmus hat angeschlagen? Mit welchem Score? Auf Basis welcher Datenpunkte? Ainomaly ist kein Orakel — es ist ein Werkzeug, das seine Arbeit offenlegt. Vertrauen entsteht nicht durch Präzision allein. Es entsteht durch Ehrlichkeit über die eigenen Grenzen.
Der Weg in die Werkstatt
Ainomaly baut auf dem OmnAI-Ökosystem auf — dem Open-Source-Projekt der AI-Gruppe aus Bochum. OmnAIView liefert die Visualisierung. Das OmnAIScope liefert die Daten. Ainomaly liefert die Intelligenz. Zusammen bilden sie die drei Säulen von aiOS, dem modularen Diagnose-Betriebssystem.
Der nächste Schritt ist ein Software-Engineering-Projekt an der Ruhr-Universität Bochum. Fünf Studierende, fünf Sprints, ein Semester. Docker Compose, FastAPI, Angular — der Stack steht. Die Docs-Seite mit Tutorials für die Studierenden steht. Simulierte Testdaten mit bekannten Anomalien stehen bereit: 100 gelabelte Signale als Ground Truth, dazu ein DevDataServer, der beliebige Szenarien in Echtzeit generiert.
Die Metriken sind definiert, bevor die erste Zeile Code geschrieben wird: Precision und Recall auf dem gelabelten Testset. Latenz der Anomalie-Erkennung in Millisekunden nach Auftreten. False-Positive-Rate als härtester KPI — weil ein einziger falscher Alarm mehr Vertrauen zerstört als zehn korrekte Erkennungen aufbauen.
Das menschliche Auge blinzelt 15 bis 20 Mal pro Minute. In jeder dieser Blinzel-Pausen fliegen 500 Datenpunkte am Bildschirm vorbei, unsichtbar, unwiederbringlich. Ainomaly sieht jeden einzelnen. Und manchmal — in einem Bruchteil einer Millisekunde, in einem Zucken das kein Mensch bemerkt hätte — liegt der Moment, der den Unterschied macht zwischen einer rechtzeitigen Warnung und einem Motorschaden auf der Autobahn.
Weiterführend
Liu, Ting, Zhou (2008): Isolation Forest — der Algorithmus hinter der ML-basierten Erkennung.
OmnAIView: github.com/omnai-project/OmnAIView
SE Lab der RUB: se.rub.de
OmnAIScope: omnaiscope.auto-intern.de