Vertiefung #1: Proaktive Transparenz bei der KI-Nutzung angehen

👉 In dieser Vertiefung geht es darum, das Prinzip der proaktiven Transparenz im Umgang mit KI zu verstehen und zu reflektieren.

Erläuterung

Proaktive Transparenz als Herausforderung auf der Ebene der menschlichen Zusammenarbeit im Kontext von KI habe ich ausgehend von dem Konzept der Pre-Empathie (von Jöran Muuß-Merholz) entwickelt.

Pre-Empathie beschreibt den Grundsatz in der Zusammenarbeit, dass diese dann gut funktioniert, wenn ich antizipiere, was meine Handlungen bei meinem Gegenüber bewirken, und sie dementsprechend gestalte. Wenn ich mir zum Beispiel ein Eis kaufe, sollte ich antizipieren, dass die Eisverkäuferin zunächst den richtigen Behälter in die Hand nehmen muss, um meine Eiskugeln dort einzufüllen. Deshalb würde ich meine Eisbestellung nicht mit „Ich hätte gerne Schokolade, Vanille und Pistazie.“ beginnen, sondern pre-empathischer formulieren: „Ich nehme drei Kugeln in der Waffel: Vanille, Schokolade und Pistazie.“ Im beruflichen Kontext sollte ich meiner Kollegin Jenni nicht einen Termin senden mit dem Titel 'Besprechung mit Jenni', auch wenn das in meinem Kalender sicher vernünftig ist. Damit der Termin aber auch in Jennis Kalender passt, wäre 'Besprechung zu xy mit Jenni und Nele' besser geeignet.

Im Kontext von KI bedeutet Pre-Empathie, dass ich antizipiere, dass mein Gegenüber erstens vor der Entscheidung steht, KI-Modelle in unserer Zusammenarbeit zu nutzen oder auch nicht. Zweitens sollte ich berücksichtigen, dass mein Gegenüber ebenso weiß, dass auch ich vor dieser Entscheidung stehe.

Es kommt in der Zusammenarbeit zu Irritationen, wenn wir diese Realität ausblenden und nicht thematisieren. In solchen Situationen können sich Beteiligte leicht betrogen fühlen („Das hat doch bestimmt KI generiert!“) oder verletzt und nicht ernst genommen („Das ist doch totaler Quatsch. Das stammt bestimmt von einem KI-Modell. Was soll denn das?“). In jedem Fall besteht die große Gefahr von gegenseitigem Misstrauen, was Gift für eine funktionierende Zusammenarbeit ist. Stattdessen sollten wir den Grundsatz der proaktiven Transparenz umsetzen. Das bedeutet, dass ich ohne vorherige Aufforderung oder bevor es zu den ersten Unstimmigkeiten kommt, Raum für Reflexion über unsere KI-Nutzung (oder auch unsere bewusste Nicht-Nutzung) schaffe.

In diesem Fall verändert sich die Dynamik: Anstatt misstrauisch aufeinander zu schauen und sich innerlich verletzt, betrogen oder nicht ernst genommen zu fühlen, können wir KI bewusst in unsere Zusammenarbeit integrieren. Das schafft erstens Raum für Erweiterungen und Vorarbeiten. Zum Beispiel, indem ich eine Liste mit zehn KI-generierten Vorschlägen teile und dazu anmerke, welcher Vorschlag mir warum am besten gefällt. Oder indem wir kollaborativ ein von KI generiertes Meeting-Protokoll korrigieren, um gemeinsam zu einem guten Dokument zu kommen. Zweitens eröffnet proaktive Transparenz auch einen Raum der Reflexion über die KI-Nutzung selbst. Wir können uns zum Beispiel fragen:

War es sinnvoll, wie wir KI hier verwendet haben?
War dieser Prompt hilfreich?
Gibt es ein besseres Modell, das wir hier einsetzen könnten?

Auf diese Weise ermöglicht uns proaktive Transparenz eine gut funktionierende menschliche Zusammenarbeit, die die Potenziale von KI ausschöpft, anstatt zu einer Kultur des Misstrauens zu führen.