Wir hatten die Ehre, mit dem renommierten Zukunftsforscher Jan Berger über die Auswirkungen Künstlicher Intelligenz auf die Personalarbeit zu sprechen – Prädikat „besonders wertvoll“. Jan Berger Heute ist Autor zahlreicher Zukunftsstudien und Trendanalysen und gefragter Sparringspartner von Konzern-Executives. Außerdem ist er Gründer und CEO des Thinktanks Themis Foresight.
Lieber Herr Berger, warum bezeichnen Sie KI als „Kollegin“?
Künstliche Intelligenz, oder besser maschinelles Lernen, wird in zunehmenden Maße Tätigkeiten ausführen, die heute noch von Menschen erledigt werden. Seien dies Entwürfe für Marketing-Botschaften, das Vorsortieren von Bewerbungen oder auch die Optimierung von Produktionsabläufen. Das ist gut und wichtig. Und gleichzeitig wird KI auf sich allein gestellt viele Fehler produzieren, die gravierende Folgen haben können. Man muss mit ihr als sinnbildlich „zusammenarbeiten“, damit sie ihre Potenziale abrufen kann. Das gleiche sagen wir ja auch über andere, menschliche, Team-Mitglieder. Insofern ist das Bild einer Kollegin KI anfassbar. Sie kommt, wie auch jeder Mensch, mit eigenen Stärken, Schwächen und Besonderheiten.
Wo kann diese Kollegin die Personalarbeit unterstützen?
Alle Tätigkeiten, die einem bestimmten Muster folgen – seien dies die Vorauswahl von Bewerbungen, Reisekostenabrechnungen, Lohnabrechnungen, Auswertung von Zeiterfassung, aber auch der Entwurf von Stellenausschreibungen – kann KI inzwischen schneller und oftmals präziser als Menschen ausführen. Jedoch sollte KI tatsächlich nur unterstützende Tätigkeiten ausführen. Die Übertragung automatisierter Entscheidungen, wie zum Beispiel über Einstellungen, Beförderungen oder auch Entlassungen, wird, wenn sie einer KI übertragen wird, zu anderen Missständen führen.
Was darf KI am Beispiel des Recruiting?
Was eine KI darf und was nicht, sollte eine Entscheidung sein, die aus gründlichen Überlegungen eines Unternehmens resultiert. Vor zwei Jahren erschien auf Bloomberg eine faszinierende Reportage, „Fired by Bot at Amazon“, in der beschrieben wurde, wie Beförderungen, Einstellungen und Entlassungen bei Amazon in den USA komplett an Algorithmen delegiert wurde mit dem Ergebnis, dass es reihenweise zu unfairen Behandlungen von Fahrerinnen und Fahrern kam. In den USA und einer großen Zahl anderer Länder ist das möglich. Dieses Vorgehen beißt sich auch nicht mit den Unternehmenswerten von Amazon.
Besitzt ein Unternehmen jedoch Werte, in denen Transparenz und menschlicher Kontakt großgeschrieben werden, sollte eine KI maximal unterstützende Tätigkeiten ausführen – sei dies die Vorauswahl von Bewerbungen, die Empfehlung von Handlungen usw. Die Ergebnisse, die ein Algorithmus dann präsentiert, erfordern eine abschließende menschliche Beurteilung, einschließlich der Möglichkeit, die Empfehlungen der KI abzulehnen. Sie erfordern auch, dass Mitarbeitende wissen, wann, wie und nach welchen Prinzipien KI zum Einsatz kommt, um Entscheidungen, die mit Unterstützung von KI getroffen wurden, anfechten zu können.