Künstliche Intelligenz – was tun?

Künstliche Intelligenz (KI) im Sinne von selbstlernenden Algorithmen wird mittlerweile für verschiedene Unternehmensprozesse eingesetzt.

Eine Befragung von mehr als 8 000 Angestellten in 10 Ländern (Oracle 2019) ergab, dass 82 % der Mitarbeiter glauben, Roboter könnten bestimmte Aufgaben besser erledigen als ihre Führungskräfte, 64 % würden einem Roboter mehr Vertrauen als ihrer Führungskraft und 50 % würden eher einen Roboter um Rat fragen als die eigene Führungskraft.
Demgegenüber gaben fast 9 von 10 Unternehmen in einer Befragung von 1 580 Executives (Capgemini 2019) an, dass das Implementieren von KI in der Organisation zu ethischen Problemen führte. Mitarbeiter berichteten von der Verwendung von KI zur Überprüfung von Bewerbern und zu einer unverhältnismäßigen Auswahl von Kandidaten nach Geschlecht, ethnischer Zugehörigkeit, Alter oder anderen Faktoren. Des Weiteren wurde KI ohne die Zustimmung der Mitarbeiter zur Überwachung am Arbeitsplatz eingesetzt. Auch der Missbrauch von persönlichen Daten durch KI-Algorithmen wurde thematisiert. Was also tun? Sollen wir KI vertrauen, sollen wir misstrauen, sollen wir immer auf der Hut sein?

Dreiecksverhältnis: Führungskraft – KI – Mitarbeiter

Und wem vertraue ich eigentlich, wenn es um die Anwendung von KI geht: der künstlichen Intelligenz oder der verantwortlichen Führungskraft bzw. dem einsetzenden Unternehmen? Diese Frage ist recht komplex und im privaten Kontext scheinen wir uns genau aus diesem Grund oft keine Gedanken mehr darüber zu machen, ob wir z. B. Facebook oder Lern- und Übersetzungsprogramme nutzen, die mit künstlicher Intelligenz arbeiten. Was geschieht aber im Arbeitskontext? Zum einen haben wir eine (noch) kaum nachvollziehbare und veränderbare Komplexität in Bezug auf das Funktionieren von KI. Zum anderen sind Initiatoren im Unternehmen durchaus definierbar: der Vorstand, die Personalabteilung, die Abteilungsleitungen. Gesammelte Daten können hier je nach Bedarf bestimmten Gruppen zugänglich gemacht werden, ohne dass der Anwender es weiß. Als Mitarbeiter brauche ich somit Vertrauen in die Technik und in die Führungskraft oder Unternehmensführung generell.

Vertrauen birgt Risiken

Vertrauen als Begriff kann in verschiedenen Kontexten definiert werden. Menschen neigen jedenfalls dazu, in einem bestimmten Maß Menschen Vertrauen entgegenzubringen. Je nach Situation und wahrgenommenen Risiko kann dieses unterschiedlich hoch sein. Vertrauen braucht also immer ein Quäntchen Risiko. Ganz ohne Risiko, sich verletzlich zu machen, ist kein Vertrauen nötig.
Wir können somit davon ausgehen, dass der Mitarbeiter dem Unternehmen und seiner Führungskraft ein gewisses Vertrauen entgegenbringt, Mitarbeiter mit einer grundsätzlich höheren Vertrauensneigung, wahrscheinlich grundsätzlich mehr vertrauen als andere. Gleiches gilt für die Anwendung von KI. Sieht man KI als Technik wie jede andere auch, dann können wir davon ausgehen, dass wir uns mit der Zeit daran gewöhnen, KI zu verwenden. Vergleichbar wäre dies beispielsweise mit einem Auto, welches auch eine komplexe Struktur hat – dennoch vertrauten wir darauf, dass der Hersteller das Auto sicher gebaut hat.
Sowohl Führungskräfte als auch Techniker können hier etwas tun, um die Risikowahrnehmung zu verringern und den Fokus mehr auf vertrauenswürdiges Verhalten bzw. Funktion von Technik zu lenken.

Kompetenz, Wohlwollen und Integrität fördern Vertrauenswürdigkeit

Eine Person wird als vertrauenswürdig wahrgenommen, wenn ihr Kompetenz und Fähigkeiten in einem bestimmten Bereich zugeschrieben werden. Wir können in gewissen Bereichen sehr kompetent und fähig sein, in anderen wiederum nicht. Diese Zuschreibung ist damit begrenzt auf bestimmte Situationen oder Kontexte. Ein weiterer Aspekt ist das wahrgenommene Wohlwollen. Ist die Führungskraft um das Wohlergehen der Mitarbeiter besorgt? Sind die Bedürfnisse der Mitarbeiter wichtig? Besteht grundsätzlich eine positive Verbindung zu den Mitarbeitern? Dritter Aspekt ist die wahrgenommene Integrität. Hält sich die Führungskraft an bestimmte Prinzipien, welchen auch die Mitarbeiter grundsätzlich zustimmen? Gibt es einen fairen und gerechten Umgang miteinander?

Nutzen und Nutzerfreundlichkeit erhöhen die Akzeptanz

Auf der technischen Seite geht es um den Nutzen von KI für den Anwender und die Nutzerfreundlichkeit. Nutzerfreundlichkeit ist hier nicht zu verwechseln mit Verstehen, wie KI funktioniert. Es gibt mittlerweile viele Unternehmen, die sehr intuitiv anwendbare KI-Lösungen anbieten. In Bezug auf den Nutzen könnte es sein, dass ein Recruiter den Nutzen in der Bearbeitung möglichst vieler Bewerbungen dem Risiko einer fehlerhaften Bewertung der Bewerber vorzieht. Es ist auch denkbar, dass das Verwenden von KI für die Kompetenz- und Performance-Messung in Verbindung mit der Transparenz von Karrieremöglichkeiten innerhalb und außerhalb des Unternehmens von den Mitarbeitern als besonders nützlich angesehen und damit das Risiko einer nachteilhaften Verwendung von Daten in Kauf genommen wird. Die Entscheidungsfreiheit, ob KI zum Einsatz kommt, wird allerdings nicht immer bei den Anwendern liegen. Bzw. kann hier ein Druck auf Mitarbeiter entstehen, wenn einige KI anwenden und andere nicht und dies in einer entsprechenden Bewertung im Sinne von »zeigt Engagement für das Unternehmen oder nicht« Ausdruck findet.

Vertrauen reduziert Stress und erhöht die Handlungsfähigkeit

Die Investition in den Vertrauensaufbau ist vorteilhaft für das Geschäft, denn sie führt zu einer erhöhten Arbeitszufriedenheit, reduziert Stress und erhöht letztendlich die Handlungsfähigkeit. In Bezug auf die Anwendung von KI führt das zur Erfordernis einer Kompetenzerhöhung in der Anwendung und im Verständnis über die Funktionsweisen von KI. Es bedarf akzeptierter und fairer Regelungen für deren Anwendung sowie einer eher utopisch anmutenden Freiwilligkeit.

Schreiben Sie einen Kommentar!


*

bärmann_steffi

Gastautorin
Steffi Bärmann
Academic ­Coordinator Human Resources ­Development, Training &
Coaching, ­Department of Management, Human Resources & ­Organisation Study Programs, FHWien der WKW.
steffi.baermann@fh-wien.ac.at