„Urheberrecht für KI-Inhalte wird ein Problem für die Softwareindustrie“
Die New York Times hat OpenAI und Microsoft verklagt, Millionen Artikel der Zeitung ohne Erlaubnis für das Training ihrer KI-Modelle genutzt zu haben. Dies sei ein Verstoß gegen das Urheberrecht, weil die Softwarefirmen mit diesen Informationen ein Konkurrenzprodukt aufgebaut hätten. Damit sei der Zeitung ein Schaden in Milliardenhöhe entstanden, lautet der Vorwurf. Damit landet die Frage, ob und wann das Training und Nutzung generativer KI das Urheberrecht verletzt, erstmals prominent vor einem Gericht – das damit eine wegweisende Entscheidung für die Entwicklung der KI treffen kann. Die Entscheidung ist diffizil. Ein Text, der von einer Künstlichen Intelligenz wie ChatGPT erstellt wurde, ist zunächst eine Aneinanderreihung der jeweils statistisch wahrscheinlichsten Wörter. Als solche seien KI-generierte Texte an sich urheberrechtlich unproblematisch. Zum Problem werden sie aber dann, wenn sie als eigenes Werk verkauft werden, erklärt Matthias Orthwein, Anwalt bei der Anwaltskanzlei SKW Schwarz und Experte für IT-Recht, im F.A.Z.-Podcast „Künstliche Intelligenz“. Denn in das Training des KI-Modells seien unzählige Dokumente eingeflossen, die entweder zufällig oder durch cleveres Prompting von ChatGPT wieder als Output ausgegeben werden könnten. Doch auch bei selbst-erstellten Texten könne es vorkommen, „dass ich irgendwo schonmal etwas gesehen oder gelesen habe, und relativ nahe dran bin: George Harrison hat seinerzeit ‚Here Comes the Sun‘ geschrieben, und hatte kurz vorher in den USA einen vergleichbaren Song gehört.“ Für die Verbreitung solcher Texte müsse deshalb sorgfältig geprüft werden, ob jemand anderes daran schon Rechte hatte – „und nur weil ChatGPT mir den Text geschrieben hat, ändert sich daran nichts.“ Hier sei insbesondere die Wiedererkennbarkeit des Originaltextes urheberrechtlich relevant: Je weiter der generierte Text vom Ursprungstext entfernt liege, desto mehr Kreativität stecke darin, erklärt Orthwein. Die eigenhändige Anpassung von ChatGPT-Texten scheint also nicht nur deren Qualität, sondern auch den eigenen Urheberrechten zuträglich zu sein. Unter anderem für die Softwareindustrie stuft Orthwein solche Urheberrechte für KI-generierte Inhalte als problematisch ein. In der Softwareentwicklung sind inzwischen künstliche Intelligenzen wie GitHub Copilot weit verbreitet, die Programmierer mit passenden KI-generierten Vorschlägen bei der Arbeit unterstützen. Das sei aktuell beispielsweise für Softwareeinkäufer ein großes Problem, erzählt Orthwein. „Per se haftet der Softwareanbieter natürlich dafür, dass keine Rechte Dritter verletzt werden – aber eigentlich kann er das gar nicht. Weil er gar nicht weiß, mit welchen Ursprungs-Codes das Modell trainiert worden ist, mit denen er das verkaufte Produkt generiert hat.“ Hier wird es für KI-Anbieter deshalb elementar wichtig, dass sie ihre Modelle nachrüsten, sie sauber trainieren und dies mit erklärbaren Modellen auch nachweisen können, rät Orthwein. Andernfalls würde der Verkauf von Software, Texten, oder anderen Inhalten, die mit Hilfe solcher KI-Modelle erstellt wurden, zukünftig urheberrechtlich bedenklich – und damit die Brauchbarkeit von KI in Unternehmen fraglich. Die Folge ist Teil unseres Podcasts „Künstliche Intelligenz“. Er geht den Fragen nach, was KI kann, wo sie angewendet wird, was sie bereits verändert hat und welchen Beitrag sie in der Zukunft leisten kann. Hosts des Podcasts sind Peter Buxmann, Inhaber des Lehrstuhls für Wirtschaftsinformatik an der TU Darmstadt, und D:ECONOMY-Redaktionsleiter Holger Schmidt. Die Podcast-Folgen haben eine Länge von rund dreißig Minuten und erscheinen monatlich jeweils am ersten Mittwoch im Monat.
Mehr über die Angebote unserer Werbepartner finden Sie HIER
Kommentare
Neuer Kommentar