Künstliche Intelligenz: Chancen, Risiken und rechtliche Herausforderungen
Die deutsche Justiz setzte kürzlich einen bemerkenswerten Schlag gegen einen Techgiganten. Mit seinem Urteil vom 11.11.2025 gab das Landesgericht München der Verwertungsgesellschaft GEMA Recht. Grund dafür waren Trainingsmethoden von OpenAI, die bei einigen KI-Modellen gegen das Urheberrecht verstossen haben sollen. Das Gericht stellte fest, dass Songtexte, für die GEMA die Verwertungsrechte hält, nicht nur als reine Trainingsdaten genutzt wurden, sondern von den Modellen teilweise vollständig memorisiert werden konnten – und somit von ChatGPT-4 und 4o nahezu wortgetreu reproduziert wurden.
OpenAI argumentierte, die Verantwortung liege bei den Nutzerinnen und Nutzern, da das Unternehmen keinen Einfluss auf die eingegebenen Prompts oder den daraus entstehenden Output habe. Das Münchner Gericht widersprach: OpenAI sei für ein rechtskonformes Training seiner Modelle verantwortlich. Ob das Urteil Bestand hat, bleibt abzuwarten – rechtskräftig ist es noch nicht. Sollte OpenAI jedoch auch in der nächsten Instanz unterliegen, müsste das Unternehmen entweder urheberrechtliche Anpassungen an seinen Modellen vornehmen, beträchtliche Lizenzgebühren bezahlen oder sich im Extremfall aus dem deutschen Markt zurückziehen.
Für OpenAI ist ChatGPT eine wichtige Einnahmequelle, um die Forschung auf dem Weg zur «wahrhaftig intelligenten» KI zu finanzieren. Für uns Nutzerinnen und Nutzer bedeuten ChatGPT und ähnliche Systeme vor allem eines: die Aussicht, unsere Arbeit schneller, besser und präziser erledigen zu können. Das ist zumindest der Anspruch. Doch halten die Technologien, was sie versprechen?
Gerade in KMU werden KI-Projekte noch vorsichtig angegangen. Investitionen sind zwar vorhanden, führen jedoch bislang selten zu neuen Geschäftsmodellen oder Einnahmequellen. Ein wesentlicher Grund liegt in der unsicheren Rechtslage: In der Schweiz gibt es noch kein KI-Gesetz, und auch die Rechtsprechung ist sehr überschaubar. Gleichzeitig verursacht die Korrektur von KI-Halluzinationen einen volkswirtschaftlich nicht zu unterschätzenden Aufwand. Als Halluzinationen bezeichnet man Fälle, in denen eine KI überzeugend klingende, aber falsche oder frei erfundene Informationen produziert.
Zudem delegieren wir immer mehr unserer Kernkompetenzen an KI und verlagern Wissen in Sprachmodelle, die Informationen jederzeit abrufbereit halten.
Genau hier liegt das Risiko: eine Anwältin bzw. ein Anwalt, der nicht mehr selber schreibt, verliert rasch die Routine und verzichtet dabei auf sein/ihr wertvollstes Gut: die Ausdrucksfähigkeit. Anwältinnen und Anwälte wägen jedes Wort ab, alles hat ein taktisches Element und folgt einer übergeordneten Strategie. Das kann heute keine KI. Sinnvoller ist der Einsatz dort, wo echte Entlastung entsteht: etwa bei intelligenten Interessenkonflikt-Checks, der automatischen Erstellung von Sachverhalts-Timelines oder bei einer umfassenden, hochwertigen Recherchedatenbank.
Dank unserer strategischen Zusammenarbeit mit einem lokalen Softwareunternehmen können wir KI bereits heute souverän und sicher einsetzen. Mit eigenen RAG-Systemen sowie einer durchdachten Kombination aus System- und Agent-Prompts steuern wir die Qualität der Antworten und reduzieren Halluzinationen deutlich. Unsere Use Cases stehen zwar noch am Anfang, doch mit der fachkundigen Unterstützung unserer Ansprechpersonen werden wir sie zügig weiterentwickeln. Ob OpenAI ihre Modelle nun urheberrechtskonform gestaltet oder nicht, dürfen wir zumindest inhouse ignorieren. Denn wir können mit dem Schweizer Modell Apertus arbeiten, dessen Erschaffer sich an das Urheberrechtsgesetz gehalten haben.
Wir sind daher zuversichtlich, dass die damit verbundenen Risiken auf Unternehmensebene beherrschbar sind, dass sich gezielte Investitionen lohnen und auch KMU den Mehrwert von KI für sich nutzen können.