Die fortlaufenden technologischen, ökologischen und demografischen Entwicklungen zwingen Organisationen dazu, sich mit ständigen Veränderungen auseinanderzusetzen und lernbereit zu sein. Künstliche Intelligenz (KI) wird hier zur relevanten Unterstützung, und eingesetzt, um strategisch relevante Fähigkeiten zu erfassen und Lern- und Entwicklungsprogramme zu erstellen, die auf die Bedürfnisse der einzelnen Mitarbeitendenr zugeschnitten sind. Die gewonnene Flexibilität und das selbstgesteuerte Lernen der Mitarbeitenden führen zur Beschäftigungsfähigkeit der Belegschaft und Wettbewerbsfähigkeit der Organisation.

Ein wichtiger Aspekt für das Human Resources Development (HRD) im Umgang mit KI, ist zu wissen, was KI ist, was es kann, und was es nicht kann. Daher soll in diesem Beitrag – und zur Einstimmung auf den Workshop „Trust in AI. Zum Aufbau von Vertrauen in künstliche Intelligenz im Bereich Human Resources Development.“ – KI definiert und geklärt werden, welche Formen von KI derzeit im HRD Anwendung finden.

McCarthy beschrieb KI erstmals 1955 als „making a machine behave in ways that would be considered intelligent if a human were doing so.”

Es wird zwischen „schwacher KI“ und „starker KI“  unterschieden

„Schwache KI“ ist in der Lage, zugewiesene Aufgaben auszuführen, Vorhersagen zu treffen, Muster zu erkennen und Empfehlungen zu geben. „Starke KI“ wird in der Lage sein, mit dem Menschen vergleichbare Handlungen auszuführen und z. B. Emotionen und Tonlagen zu interpretieren. Aktuelle Entwicklungen gehen nicht über die der „schwachen KI“ hinaus; „starke KI“ gibt es noch nicht. Mit dem Begriff KI wird derzeit versucht, etwas zu beschreiben, das in Ansätzen existiert, sich weiterentwickelt und teilweise noch unbekannt ist. KI wird daher auch als Oberbegriff verstanden, unter dem die Methoden des Maschinellen Lernens, des Deep Learning und der Neuronalen Netze einzuordnen sind.

Das Hauptziel von ML ist es, Wege vorzuschlagen, die das Lernen aus Daten ermöglichen. Deep Learning ist eine der effektivsten ML-Techniken, die in supervised, semi-supervised, unsupervised und reinforcement Algorithmen unterteilt werden können.

Supervised ML

Supervised ML arbeitet mit sogenannten gelabelten Daten, d. h., es wird im Voraus festgelegt, welche Eingaben mit welchen Ausgaben in Verbindung gebracht werden sollen. Die Algorithmen trainieren dann innerhalb dieses Rahmens, klassifizieren Daten, berechnen Regressionen und machen so Vorhersagen über bestimmte Beziehungen. Aufgrund der Vorgaben sind die Berechnungen weniger komplex, es wird eine geringere Datenmenge benötigt, und das Ergebnis ist genau. Andererseits ist Fachwissen erforderlich, um diese Labels zu setzen. Anwendungsbereiche im Lernkontext sind z.B. die Erkennung von Plagiaten, automatisierte Tests und Lernfortschrittsanalysen. Fraglich ist hier, welche Daten wie verwendet werden, wer Einblick in die Daten und den Lernfortschritt hat, oder ob z.B. Lernleistung mit anderen Mitarbeitenden verglichen oder anderen Leistungsdaten in Beziehung gesetzt wird.

Unsupervised ML

Unsupervised ML arbeitet ohne die Rahmensetzung durch Labels. Hier werden in einem großen Set an Daten Muster erkannt und Cluster gebildet. Umso größer das Datenset, umso akkurater die Ergebnisse. Im HRD können diese Algorithmen eingesetzt werden, um beispielsweise Empfehlungen über relevante Zukunftsskills zu erhalten, in dem z.B. im Internet, auf diversen Plattformen entsprechende Muster und deren Veränderungen erkannt werden. Wichtig ist hier, klarzustellen, auf welche Daten zurückgegriffen wird und dass es nach wie vor menschliche Fachexpertise braucht, um die empfohlenen Ergebnisse zu validieren.

Reinforcement Learning

Ein Bereich, der noch nicht angewendet wird, aber in Zukunft relevant werden könnte, ist das Reinforcement Learning. Hier agiert ein sogenannter Agent mit seiner Umwelt und lernt durch seine Fehler und Belohnungen. Ein menschliches Eingreifen ist hier nicht mehr erforderlich. Derzeit wird diese Form des ML noch nicht im Kontext Lernen in Organisationen eingesetzt. Sollten solche Algorithmen jedoch zum Einsatz kommen, stellt sich die Frage, wer die Fehler und Belohnungen für welche Aktionen festlegt und wie sich diese anpassen können. Um hier Vertrauen zu schaffen, wird an erklärbarer KI gearbeitet.

Zusammenfassend lässt sich sagen, dass die Entwicklung von KI erst in den Anfängen steckt, künftige KI-Systeme in der Lage sein werden, weitaus komplexere Aufgaben (z. B. die Messung von Emotionen) beim Lernen zu übernehmen und der Einsatz von KI Interdisziplinarität (zumindest) zwischen Informatik, Statistik und Bildung erfordert.

Vertrauen!

Lernleistung in Organisationen wird durch Vertrauen in die Führungskraft, Kolleg:innen und Lernumgebung erhöht. Der Einsatz von KI verändert hier einschneidend den Zugang zu Informationen, Entscheidungen und damit Beziehungen. Daher ist ein grundlegendes Vertrauen notwendig, um KI in der Organisation nutzenbringend einzusetzen. Diskutieren Sie mit mir im Workshop relevante Praxisbeispiele, schärfen Sie Ihr Bewusstsein darüber, was Vertrauen in KI im organisationalen Kontext beeinflusst und reflektieren Sie ihren Umgang damit. Ich freue mich auf Sie!

Über die Autorin
Unternehmenskultur

Steffi Bärmann

Steffi Bärmann ist Academic Expert & Lecturer für Personalentwicklung, Training und Coaching an der FHWien der WKW und schreibt an Ihrer Dissertation zum Thema „Trust of self-directed learners and managers in AI-supported Learning systems in organizations.” Bei Interesse an der Studie oder an einer Studienteilnahme, setzen Sie sich gerne in Verbindung: steffi.baermann@fh-wien.ac.at

Wir bedanken uns bei Steffi für die großartige Session am HR Inside Summit 2023!

Mehr Infos zu unserem Summit und dem 10 Jahre Jubiläum 2024 findest du hier: