Einerseits liegt die Vermutung nahe, dass die Digitalisierung das Bemühen im Qualitätsmanagement perfekt unterstützt, da es zum Beispiel durch die SPC (Statistical Process Control) bereits auf vieljährige Anwendungserfahrung im Umgang mit Algorithmen zurückblickt. Das Qualitätsmanagement verfügt so gesehen über historisch gewachsene mathematische Verfahren, um nicht linearen Prozessen mit statistischen Modellen und Methoden auf die Schliche zu kommen. Andererseits werden heute aber Algorithmen schnell mit Künstlicher Intelligenz (KI) verwechselt, was die Gefahr für große, teure und am Ende wenig sinnvolle Digitalisierungsprojekte mit sich bringt. Dabei werden die Praxiserfahrungen aus der Qualitätssicherung wenig bis gar nicht berücksichtigt. KI und Algorithmen haben viel miteinander zu tun; nicht immer ist aber sofort von einem KI-Projekt die Rede, wenn Algorithmen zum Einsatz kommen.
Letztendlich müssen die Verantwortlichen aus ihren Erfahrungen mit Methoden und Algorithmen lernen – und leider ist der richtige Umgang mit gewonnenen Daten für manche noch immer ein Buch mit sieben Siegeln. Wenn in der Zukunft immer mehr Datenpunkte im Entwicklungs-, Produktionsprozess und im Feld vorliegen, dann gewinnen Algorithmen (mit aber eben auch ohne KI) enorm an Bedeutung. Ging es in der Vergangenheit darum, Abweichungen zu erklären, nutzen wir in der Zukunft bestenfalls das aus den Daten gewonnene Knowhow, um Neues zu erkunden. Digitalisierung passiert also nicht nebenbei und auf einen Schlag; sie ist ein aktiver Prozess, der (im Idealfall) Mehrwerte generiert und den Aufwand auch wirklich wert ist. Das gilt – wenig überraschend – auch für den Umgang mit Daten, die dabei gewonnen werden.
Kommentare
Keine Kommentare