Ethik der generativen KI – Grenzen und Verantwortlichkeiten beim Einsatz von KI zur Inhaltserstellung
Geschrieben von Maren Dinges | 25. September 2024
Generative KI verändert Arbeitsabläufe in Unternehmen. Denn anders als der Mensch erstellt künstliche Intelligenz beliebige Inhalte in Sekunden. Doch nicht immer lassen sich die generierten Inhalte von Unternehmen bedenkenlos verwenden: Mit dem Einsatz generativer KI kommen unmittelbar ethische Fragen auf.
Ob ein KI-Inhalt Rechte wie Urheberrechte und Persönlichkeitsrechte verletzt oder sogar Falschinformationen enthält, ist selten auf den ersten Blick erkennbar. Die Folge: Für Unternehmen birgt der Einsatz generativer KI hohe Geschäftsrisiken. Doch auch der Verzicht auf KI generierte Inhalte wäre für Unternehmen existenzbedrohlich.
Statt der generativen KI also abzuschwören, müssen Unternehmen die Grenzen der generativen KI verstehen und Verantwortlichkeiten bewusst definieren. Wir zeigen, wie.
Generative KI ist ein Teilbereich der künstlichen Intelligenz. Ihr Zweck besteht darin, neue – also originelle – Inhalte und Daten zu kreieren. Das sind Anwendungsgebiete:[1]
Grenzen der generativen KI liegen insbesondere im Output, den die KI liefert. Zwar ist bei generativer KI davon auszugehen, dass die Inhalte originell sind, allerdings kann es sich dabei auch nur um Teilstücke handeln. Dann laufen Unternehmen Gefahr, ethische Grundsätze zu verletzen. Das sind Beispiele:
Generative KI kann nur Inhalte aus Daten generieren, die sie besitzt. Das bedeutet gleichzeitig, dass der Output, also der generierte Inhalt der KI, von den gefütterten Daten abhängt. Der Großteil der Daten sind Trainingsdaten. Sofern es sich dabei nicht um eine eigene KI-Technologie handelt, hast du keinen Einfluss auf die Trainingsdaten. Prinzipiell ist es daher möglich, dass die Trainingsdaten teilweise unethisch sind. Unethische Trainingsdaten sind zum Beispiel jene, die
Das Verwenden solcher Inhalte könnte diesbezüglich eine Rechtsverletzung darstellen. Insbesondere der letzte Punkt könnte zudem dazu führen, dass Unternehmen an öffentlichen Ansehen verlieren.
Auf welcher Basis generative KI Inhalte erstellt, ist in der Regel undurchsichtig. Grund dafür ist die mangelnde Datentransparenz. Trainingsdaten lassen sich ggf. noch nachweisen, aber wie sieht es mit den Millionen an Daten aus, die User der generativen KI wie du täglich in das Programm eingeben? Dies kann dazu führen, dass generative KI sensible Daten in weiteren Texten verwendet. Handelt es sich hierbei beispielsweise um personenbezogene Daten oder Geschäftsgeheimnisse, wäre der Einsatz der Inhalte mit einem Datenmissbrauch verbunden.
Nicht von der Hand zu weisen ist zudem, dass manche KI-Modelle diskriminierend sind. Dies ist beispielsweise der Fall, wenn eine KI für Recruiting nur auf Basis eines geeigneten Talentprofils trainiert wurde. Dann würde die KI nur die Talente positiv hervorheben, die den Daten entsprechen. Würden also laut Daten nur blonde Frauen für eine Stelle infrage kommen, die maximal 30 Jahre alt sind, wäre das eine Verletzung des AGGs.
Sich der generativen KI aufgrund ihrer Grenzen zu verschließen, wäre der falsche Weg. Generative KI ist gekommen, um zu bleiben – genauso wie damals das Internet. Die Frage ist also nicht, ob du generative KI-Inhalte verwendest, sondern wie du sie ethisch korrekt verwendest. Dafür müssen KI-Inhalte in einem regulierten Umfeld kreiert werden.
Aktuell arbeitet die EU an dem AI Act. Er soll den Einsatz von KI grundrechtskonform reglementieren. Bis es so weit ist, schaffen führende Unternehmen wie IBM Fakten, indem sie unternehmensintern entscheiden, wie sie KI verantwortungsvoll einsetzen möchten.[2] Das sind Wege:
Innerhalb des Unternehmens sorgen Richtlinien im Einsatz generativer KI dafür, dass Mitarbeiter:innen die Technologie korrekt anwenden. Denn der von der KI gelieferte Output ist nur indirekt dafür verantwortlich, dass Inhalte unethisch sind. Wer den Input gibt, entscheidet unmittelbar über den Output. Deshalb sind unternehmensinterne Schulungen zum Einsatz generativer KI die Basis, um ethisch korrekte Inhalte zu kreieren.
Ein verantwortungsvoller Umgang mit generativer KI gelingt vor allem, wenn die KI nur Teil eines Workflows ist. Das impliziert, dass ein Mensch den Output der KI im Anschluss noch einmal prüft – auf Gesichtspunkte wie Verzerrungen (Biases), ethische Korrektheit und Tonalität. Teil der Überprüfung sollte es zudem sein, ausgegebene Fakten auf ihren Wahrheitsgehalt zu prüfen. So gehst du sicher, dass dein Text ausschließlich korrekte Inhalte enthält.
Damit Inhalte der generativen KI ethisch korrekt sind, müssen Menschen lernen, künstliche Intelligenz verantwortungsvoll einzusetzen. Nutzungsrichtlinien und andere Regelwerke geben Orientierung. Viel wichtiger ist jedoch, den Output immer auf Korrektheit zu prüfen. So behalten Unternehmen die Kontrolle darüber, welche Inhalte sie veröffentlichen und welche nicht.