Künstliche Intelligenz: Was kommt da noch auf uns zu?

Wofür lässt sich die Künstliche Intelligenz nutzen? Inwieweit wird sie unser Leben und die Arbeitswelt verändern? Das ist zurzeit noch weitgehend unklar! Entsprechend viele Projekte finden aktuell in den Unternehmen statt, um dies auszuloten.

Glaubt man den Veröffentlichungen zum Thema „Künstliche Intelligenz“, dann gewinnt man oft den Eindruck, durch die verstärkte KI-Nutzung wird sich die Arbeitswelt fundamental verändern – und zwar insbesondere dann, wenn sich die künstliche Intelligenz (KI) mit der Robotik und Automatisierung zur sogenannten KIRA verbindet.

Das Buch zum Thema

KI im Unternehmen
» Mehr Infos & kaufen

Noch ist der KI-Einsatz sehr begrenzt

Doch noch ist es nicht so weit, betont Prof. Dr. Georg Kraus, der Inhaber der Change- und Transformationsberatung Kraus & Partner, Bruchsal. Zwar habe sich das Erstellen von Texten, Bildern und Gesprächsprotokollen mit ChatGPT und Copilot zumindest in größeren Unternehmen inzwischen zum Standard entwickelt, doch von einem großflächigen und funktionsübergreifenden KI-Einsatz in ihnen könne heute noch kaum die Rede sein. Vielmehr würden die KI-Tools und -Systeme aktuell noch primär zum Effektivieren einzelner (Teil-)Prozesse und Aufgaben genutzt; und dies in der Regel nur in ausgewählten Bereichen wie zum Beispiel

  • dem Marketing und Vertrieb sowie
  • im Controlling sowie in der Logistik.

Dadurch sinke zuweilen zwar auch die Zahl der benötigten Mitarbeiter und an die verbliebenen würden teils neue Anforderungen gestellt, doch die KI mache die „Ressource Mensch“ keineswegs überflüssig.

Das Buch zum Thema

KI-Roadmap
» Mehr Infos & kaufen

Ähnlich sieht dies die Managementberaterin Barbara Liebermeister, Wiesbaden, deren kurz IFIDZ genanntes Institut auf das Themengebiet „Führung im digitalen Zeitalter“ spezialisiert ist. Für sie ist zum Beispiel die Diskussion darüber, ob menschliche Führung im KI-Zeitalter noch nötig sei, eine Schimäre, denn Führung bedeute stets auch, Verantwortung zu übernehmen – „für Menschen, Entscheidungen und deren Konsequenzen“. Und genau hier liegt für Liebermeister die Grenze von KI: „Maschinen können keine Verantwortung übernehmen, weil sie weder verstehen, was Verantwortung bedeutet, noch ihr Handeln rechtfertigen können“.

Nicht nur die Intelligenz der Künstlichen Intelligenz ist begrenzt

Ein entscheidender Grund hierfür ist, so Liebermeister: „KI-Systeme haben kein Bewusstsein. Sie ‚wissen‘ nicht, dass sie existieren, und reflektieren ihre Entscheidungen nicht.“ Verantwortung setze jedoch „das Wissen um die eigenen Handlungen und deren Konsequenzen“ voraus.

So überlege zum Beispiel eine Führungskraft, bevor sie handelt:

  • Welche Auswirkungen hat meine Entscheidung?
  • Was passiert mit den betroffenen Menschen?
  • Ist meine Entscheidung moralisch vertretbar?

„KI-Systeme hingegen folgen nur Algorithmen. Sie berechnen Wahrscheinlichkeiten, erkennen Muster und optimieren Entscheidungen auf Basis statistischer Zusammenhänge: Doch sie verstehen nicht, was richtig oder falsch ist.“

Den heutigen KI-Systemen fehlt laut Prof. Dr. Kraus unter anderem noch die erforderliche „Decision Intelligence“, sprich Entscheidungsintelligenz, um Menschen nicht nur im Führungsbereich zu ersetzen. Zwar seien die modernen, generativen KI-Systeme zunehmend fähig, sich wiederholende Entscheidungen automatisiert zu treffen. Doch ihre Entscheidungsfähigkeit stoße an Grenzen, wenn es für das Entscheiden nötig sei, neue Kontexte zu erschließen bzw. unvorhergesehene Situationen und Konstellationen zu durchdringen, „was in einer von permanenter Veränderung geprägten Welt immer häufiger der Fall ist“. Dann sei ein szenariobasiertes Denken für die Entscheidungsfindung unerlässlich. Das könnten die KI-Systeme jedoch noch nicht. Sie können zwar Wahrscheinlichkeiten berechnen, sie verstehen aber nicht, welche Szenarien wirklich realistisch oder brisant sind. Sie erkennen zudem nicht intuitiv, wann ein Risiko trotz guter Datenlage nicht tragbar ist – „ein erfahrener Mensch“, so Kraus, „kann das“.

Hinzu kommt laut Liebermeister: Eine KI hat kein „Bauchgefühl“. Sie hat keine innere Stimme, die ihr im Bedarfsfall sagt: „Moment mal, da stimmt was nicht“. Sie hat zudem kein Gewissen und nicht die erforderliche menschliche Empathie, die ihr zuweilen sagt: „Stopp, das können oder dürfen wir nicht tun.“ Sie spult schlicht ab, was die Daten ihr vorgeben – ohne jegliches Mit-, Schuld- und Verantwortungsgefühl, „weshalb wir ihr gewisse Aufgaben nicht übertragen dürfen“.

Die KI kann jedoch zunehmend Empathie simulieren

Inwieweit manche Menschen (und Organisationen) ein solches Gewissen und eine solche Empathie haben, darüber lässt sich, wenn man ihr Treiben beobachtet, streiten. Doch nicht deshalb stimmt die Wiener Wirtschaftspsychologin Sabine Prohaska, die Unternehmen beim Einführen einer neuen Lernkultur und Kultur der Zusammenarbeit unterstützt, obigen Aussagen nur zögerlich zu. Sie verweist darauf, dass die KI zwar nicht wirklich empathisch sei, die modernen KI-Systeme könnten jedoch menschliche Emotionen erkennen und mit dem jeweiligen Gegenüber „simulierte empathische Interaktionen“ führen – also solche, die empathisch wirken. 

Sie verweist zudem auf die enorme Lernfähigkeit der generativen KI, weshalb heute in Fachkreisen schon darüber diskutiert wird, ob es in naher Zukunft zum Beispiel den Beruf des Trainers und Coaches überhaupt noch geben wird. Zumindest wird sich deren Funktion stark wandeln. Diese Vermutung legt, so Prohaska, die Beobachtung nahe, dass heute bereits KI-gestützte Online-Trainings- und -Coaching-Programme solche Funktionen übernehmen, wie

  • den Lernern bzw. Coachees ein Feedback zu geben und
  • sie zum Weitermachen zu motivieren

– Funktionen, bei denen man vor einiger Zeit noch sagte, sie setzen ein menschliches, zur Empathie fähiges Gegenüber voraus. Dies lässt erahnen, so Prohaska, inwieweit mittel- und langfristig KI-Systeme auch Aufgaben übernehmen könnten, die wir heute noch als originär menschliche erachten. Faktisch wissen wir dies aber noch nicht, denn dies hängt außer von der technologischen Entwicklung, auch von der Entwicklung des unser menschliches Denken und Handeln prägenden Wertesystems ab – und auch dieses befindet sich zurzeit im Wandel.

Die KI kann zunehmend menschenähnlich kommunizieren

Dies auch vor dem Hintergrund, dass wir Menschen im Umgang mit der KI die Erfahrung sammeln, diese kann zunehmend nicht nur menschliche Empathie simulieren, sondern mit uns auch menschenähnlich kommunizieren. Deshalb stellt sich zunehmend die Frage: „Wenn die KI-Systeme in naher Zukunft auch noch die Stimmen von Menschen sowie zum Beispiel bei Videosessions deren Gestik und Mimik interpretieren können, können sie dann nicht auch viele Gespräche – wie zum Beispiel Verkaufs- und Mitarbeitergespräche – führen, von denen man heute noch sagt, diese setzen einen menschlichen Verkäufer bzw. eine menschliche Führungskraft voraus?“  

Projekte, um dies auszuloten, finden zurzeit bereits in vielen Unternehmen statt. So berichtet Georg Kraus zum Beispiel von Projekten mit dem Ziel: Alle Mitarbeiter eines Unternehmens, die an einem Online-Qualifizierungsprogramm teilnehmen, erhalten, wenn sie dort aktiv waren, von einem Bot automatisch ein stimulierendes Feedback – jedoch kein anonymes, sondern eines, das scheinbar vom Bereichsleiter oder gar Vorstand kommt.

Digitale Fake-Kommunikation ersetzt zunehmend reale Kommunikation

Zudem berichtet er von KI-Programmen, die

  • auf solchen Businessportalen wie LinkedIn automatisiert die aus Unternehmenssicht relevanten Entscheidern identifizieren,
  • diesen automatisiert im Namen einer adäquaten Kontaktperson in der eigenen Organisation eine Kontaktanfrage senden und
  • diesen Personen nach deren Annahme zwecks Beziehungsaufbau ebenfalls automatisiert, wenn sie etwas im Netz posten, stets ein Feedback geben, sei es in Form eines Likes, eines Kommentars wie „interessanter Beitrag“ oder einer ausführlichen scheinbar persönlichen Nachricht des Account-Inhabers, deren Autor jedoch faktisch ein Bot ist.

Das heißt, die Account-Inhaber führen mit der jeweiligen Zielperson faktisch eine Fake-Kommunikation, die menschliches Einfühlungsvermögen und eine persönliche Wertschätzung simuliert, mit dem Ziel eine Beziehung mit der betreffenden Person aufzubauen.

Diese Art der Fake-Kommunikation wird künftig immer stärker die Kommunikation im digitalen Raum prägen, befürchtet Dr. Kraus. Eine Befürchtigung, die nicht unbegründet ist, wenn man daran denkt, wie viele Bots bzw. nicht-menschliche Trolle heute schon in Diskussionsforen, Newsgroups, Chatrooms usw. ihr Unwesen treiben, die vorgeben: Ich bin ein Mensch.

Teilen

Dieser Artikel kann nicht kommentiert werden.