Datengetriebene Entscheidungsmodelle gelten als wichtige Pfeiler des digitalen Geschäfts. Doch sind Algorithmen, die Entscheidungen treffen, eine rein technische Angelegenheit? Wir haben mit Stephanie Fischer, Referentin auf der solutions.hamburg, über die Auswirkungen solcher Modelle auf die Unternehmenskultur gesprochen.

Redaktion: Steffi, wie ist es dazu gekommen, dass Du Dich mit datengetriebenen Entscheidungsmodellen beschäftigst?

Steffi: Mein Fokus lag ursprünglich im Bereich Change Management und Organisationsentwicklung. Und einer der größten Treiber von Wandel in Unternehmen im Rahmen der Digitalisierung ist derzeit der Einsatz von Big Data-Technologien. In vielen meiner Kundenprojekte wurden automatisierte Entscheidungsprozesse ausgelotet und eingeführt. Dabei tauchte immer wieder die gleiche Frage auf: Was bedeutet das eigentlich für die Organisation und die Menschen innerhalb dieser Organisation?

Redaktion: Wie gehen Unternehmen mit den neuen Möglichkeiten um, die Big Data-Technologien bieten?

Steffi: Den Unternehmen ist bewusst, dass Mitarbeiter keine ausschließlich rational agierenden Wesen sind und öfters als gedacht fehlerhafte Entscheidungen treffen. Gleichzeitig übt die Globalisierung mit ganz neuen Wettbewerbern Druck aus. Hier tritt die intelligente Kombination von Daten und KI auf den Plan. Sie erlaubt es Unternehmen, bessere, schnellere Entscheidungen zu treffen – sei es nun komplett automatisiert oder als Unterstützung einer Entscheidung, die weiterhin von Menschen getroffen wird.

Viele Unternehmen gehen aktuell die ersten Schritte – jedoch ohne die Konsequenzen für ihren Betrieb in vollen Umfang zu betrachten. Sie verstehen den Algorithmus nur als ein Tool um als Unternehmen effizienter, schneller, besser zu werden. Sie verwenden ihre Ressourcen vorrangig darauf, dieses Tool zu verbessern.

Redaktion: Welche Aspekte fallen denn am häufigsten unter den Tisch? Und warum ist das problematisch?

Steffi: Menschen müssen lernen, mit diesen neuen Tools klarzukommen und benötigen neue Kompetenzen dafür. Für die Forstarbeiter war die Einführung von Kettensägen eine immense Arbeitserleichterung, in falschen Händen kann sie aber großen Schaden verursachen. Ebenso müssen Unternehmen entscheiden, wer welche Tools einsetzen darf.

Auch gesamtgesellschaftlich ist diese Entwicklung brisant. Wer entscheidet, was ein Algorithmus entscheiden darf? Sollte zum Beispiel bei der Entscheidung, ob Hartz-IV weiterverfolgt wird oder ob das bedingungslose Grundeinkommen in Kraft tritt, künstliche Intelligenz mitwirken? Und welche Größe optimiert der Algorithmus – Schuldenabbau, Vollbeschäftigung oder Glück?

Redaktion: Was kann man tun, um die Chancen und Risiken differenzierter zu betrachten?

Steffi: Wichtig ist zunächst die Einsicht, dass die Delegation – also das Abgeben – von Entscheidungen nicht zu null oder hundert Prozent erfolgen muss. Für jeden Anwendungsfall gibt es viele Grade der Abstufung. Will ich die gesamte Kontrolle an einen Algorithmus abgeben oder nur einen Teil? Auch hierüber muss eine breitere Diskussion stattfinden: In Unternehmen mit Vertretern unterschiedlichster Bereiche und Hierarchieebenen. In der Gesellschaft mit Repräsentanten möglichst vieler Interessensgruppen.

Big Data und KI sind Techniken, die nicht nur technische Probleme lösen. Sie beeinflussen weltweit das Leben von Menschen. Machine Learning nimmt uns bereits heute viele unangenehme Routineaufgaben ab. Andererseits trifft es auch Entscheidungen für uns, zum Beispiel in der Klassifikation von Fake News oder in der personalisierten Auswahl von Suchergebnissen.

Die zentralen Fragen sind: Was ist noch Komfort – und was schon Kontrollverlust? Wie viel Kontrolle haben wir alle schon an künstliche Intelligenz abgegeben? Wie weit soll die Automatisierung in das Leben eingreifen?

Betroffene und Beteiligte – egal ob man nun ein Unternehmen oder ganze Länder betrachtet – benötigen geeignete Kompetenzen, um diese Technologien verstehen und einschätzen zu können. Wo und wie diese Technologien eingesetzt werden, sollte nicht nur in den Händen weniger Spezialisten liegen.