Mobile-Menu-Trenner
Hamburgermenu_icon
Hamburger-X_icon Copy
Hamburger-X_icon Copy
Group

KI im Projektmanagement – Sinn oder Unsinn?

Bei letzten PMI Chapter Meeting in Stuttgart hatte ich das Vergnügen einen Vortrag zum Thema „Die Grenzen des Nutzens von KI-Systemen im Projektmanagement“ zu präsentieren. Dabei wollte ich sowohl die wissenschaftlichen Grundlagen als auch die Zukunftsaussichten thematisieren.

Ein Thema, das mir sehr am Herzen liegt, da ich zum einen das Thema KI schon sehr lange verfolge und ich mit meinem Team in der Software-Entwicklung täglich das Projektmanagement auf dem Tisch habe.

Der Wirbel durch ChatGPT

Künstliche Intelligenz ist seit Jahrzehnten ein zentrales Thema in der Forschung und der Wissenschaft. Seit Jahren steigt die Nutzung von KI-Systemen sowohl im beruflichen als auch im privaten Alltag stetig an. Der Erfolg von Large Language Models – befeuert insbesondere durch die Vorbereitung von ChatGPT in der breiten Öffentlichkeit – haben einen wahren Hype ausgelöst.

Es wird viel diskutiert über Datenschutz, Ethik und Risiken von KI-Systemen und es entstehen immer neue Plattformen, die etwa auch für das Projektmanagement KI-gestützte Tools und Frameworks anbieten. Unterschiedlichste Informationen und Meinungen vermischen sich munter mit wissenschaftlichen Grundlagen und Erkenntnissen und es entsteht sehr viel Unsicherheit und Halbwissen. Ein Grund für mich zu schauen, wo die sich die Grenzen aktueller KI-Systeme befinden und was ich vornehmlich für das Projektmanagement davon ableiten kann. So bin ich darauf gekommen, dass speziell im Gebiet Leadership die KI-Systeme noch lange nicht mehr als Werkzeuge sein werden. Warum werden Sie sich fragen?

Wann ist eine Künstliche Intelligenz intelligent?

KI-Anwendungsfall-Illustration-mip

1950 definierte Alan Turing einen Test, der dann als bestanden gilt, wenn ein Mensch sich mit einer künstlichen Intelligenz unterhält und nicht merkt, dass er/sie nicht mit einem Menschen redet. Man kann sagen, ChatGPT hat dieses Ziel nahezu erreicht. Das macht zum einen sicher die Faszination aus, bringt aber zum anderen auch einige Gefahren. ChatGPT ist ein hochkomplexes modernes künstliches neuronales Netz und gehört somit zu dem Bereich des Deep Learning. Wie alle generative KI wird das Modell unbeaufsichtigt trainiert. Hierbei gilt, dass die Qualität der Daten einen starken Einfluss auf das Modell hat. Bei ChatGPT als zunächst B2C Modell, wurde kein großer Fokus auf die Governance der Daten gelegt. Voreingenommene Antworten (Bias), oder ethisch nicht korrekte Antworten (Hatespeech etc.) stellen hier eine große Gefahr dar. ChatGPT versteht nicht wirklich den Sinn von Fragen, sondern analysiert Fragen und gibt Antworten anhand von Wahrscheinlichkeiten.

Denn das menschliche Hirn ist die Messlatte

Eine zentrale Eigenschaft des Gehirns, die wir an dieser Stelle festhalten, ist die enorm hohe Zahl an Neuronen und die enorme Dichte der Vernetzung dieser Neuronen untereinander. Dass es auf absehbare Zeit unmöglich ist, ein solch komplexes Netzwerk mathematisch (auch nur andeutungsweise vollständig) zu beschreiben, ist mehr als offensichtlich. Wenn wir annehmen, dass die Information über Ort und Zeit eines Aktionspotenzials, zum Beispiel einer Muskelreaktion, 20 Bits benötigt, ergibt sich bei 100 Milliarden Neuronen und einer Feuerrate von einem Hertz pro Sekunde 2,5 Terabyte Informationsmenge, die erzeugt werden kann.

Modernste Computer und/oder Cluster besitzen durchaus mehrere 100.000 Prozessoren. Selbst im Cluster wird es jedoch noch sehr lange dauern, bis wir, wenn man vereinfacht jedes Neuron mit einem CPU-Kern gleichsetzt, die physikalischen Voraussetzungen haben, ein künstliches neuronales Netz in der Komplexität eines menschlichen Hirns aufzubauen.

Aufbau und Training eines neuronalen Netzwerks

Neuronale Netze werden auf verschiedene Arten trainiert. Hierbei gibt es grob eine Unterteilung bzgl. der Daten, die für das Training genutzt werden und zusätzlich eine Unterscheidung hinsichtlich der Trainingsmethode.

Klassische spezialisierte neuronale Netze werden mit von Hand vorbereiteten Daten trainiert. Dies erfordert ein hohes Maß an Aufwand, um die Daten für das Training vorzubereiten. Es wird zudem dann typischerweise mit dem Modell interagiert und händisch eingegriffen, um Parameter und Gewichtungen zu justieren, um möglichst fehlerfreie Modelle zu erzeugen.

Generative künstliche Intelligenz braucht gewaltige Datenmengen als Training. Daher können hier keine Trainingsdaten händisch kreiert werden. Stattdessen werden große vorhandenen Datentöpfe (typischerweise im Internet) zum Training genutzt. Das Ganze passiert zudem weitestgehend unbeobachtet. Je nachdem kann sich eine generative KI dann auch selbst Trainingsdaten erzeugen. Oft werden zusätzlich die Eingaben der Nutzer für das Training des Modells genutzt. Diese Art des Trainings erfordert einen Governance-Prozess, da ansonsten ein großes Risiko besteht, dass das Modell Fehler begeht, wie Voreingenommenheit (Bias), Hatespeech, Drifting (falsche Musterzuordnung), Rassismus oder sonstige Reaktionen, die gegen die Regeln der Ethik und/oder Diversity verstoßen.

Einsatz von KI im Projektmanagement

KI-Illustration-mip

Meiner Meinung nach lässt sich KI durchaus einsetzen, zum Beispiel bei der Optimierung von Projektplänen, da es sich um eine mathematisch voll beschreibbare Welt handelt. Wichtig dabei ist nur, die Aufwandsschätzungen immer zu kontrollieren

Auch bei Berechnungen und Simulationen aller Art, Erkennung von Mustern (ähnliche Situationen in vergangenen Projekten), Data-Mining in riesengroßen Datenmengen, automatisierten Tests und Prototyping sehe ich Potenzial.

Aber ich halte es nur für bedingt geeignet bzw. ungeeignet für die Kommunikation mit dem Team, zur Konfliktlösung, für das Mentoring und die Mediation. In diesen Bereichen sind die KI-Modelle noch bei Weitem nicht ausreichend gut trainiert und vor allem auch nicht erforscht, wie ja im vorherigen Abschnitt zum Thema Training bereits erklärt wurde. Speziell im Rahmen der Kommunikation spielen neben der Sprache auch Mimik, Gestik etc. eine enorme Rolle. KI-Systeme kommen auch bisher sehr schlecht oder gar nicht mit Ironie, Sarkasmus und Zynismus klar, was typische Themen in speziell konfliktreicher Kommunikation sind.

Was ist noch zu erwarten

Aus meiner Sicht wird KI mit den heutigen mathematischen statistischen Verfahren niemals in der Lage sein, ein Bewusstsein zu entwickeln. Die Zukunft wird andere Formen der KI untersuchen und weiterentwickeln, wie im Quantencomputing o. Ä.

Aber immer dann, wenn ein System umfassend oder vollständig logisch beschrieben werden kann, wird zukünftig KI eingesetzt werden, auch hier einige Beispiele wie Formulierung formaler Briefe / Texte / Bedienungsanleitungen etc., Übersetzungen, Projektpläne, Schach, GO, Steuerung von komplexen Maschinen (z.B. Raumsonden etc.) und vieles mehr.

Ein starker Partner an Ihrer Seite

Joerg Kremer, Leiter Consulting der mip Gmbh

Wenn Sie Fragen dazu haben, einen unverbindlichen Austausch suchen oder Interesse haben, unser Angebot rund um KI und das Projektmanagement kennenzulernen, dann freue ich mich auf ein persönliches Gespräch mit Ihnen.  

Schreiben Sie mir dazu eine Mail an kontakt@mip.de, gerne mit einem Terminvorschlag und ich werde mich umgehend bei Ihnen melden.

Jörg Kremer

Project Management Professional (PMP)

Disciplined Agile Scrum Master

Klicken Sie auf KI und SW-Entwicklung, wenn Sie an unseren Services interessiert sind.

Das könnte Sie auch noch interessieren

Eine Starke Marke

mip Flur
Die Marke mip steht für über 35 Jahre Erfahrung als Komplettanbieter für Analyselösungen zur optimalen Nutzung Ihres Datenpotentials.
mip Flur