KI-Kennzeichnungspflicht

 

Grafik KI-Recht Sterne

KI-Kennzeichnungspflicht nach Art. 50 Abs. 4 KI-VO: Ein Praxisleitfaden für Agenturen und Marketing-Teams

Künstliche Intelligenz hat längst Einzug in Marketingabteilungen und Kreativagenturen gehalten. Ob bei der Content-Erstellung für Social Media, der Konzeption von Werbegrafiken oder im Textbereich – KI-Tools gehören heute zum Standardrepertoire vieler Unternehmen.

Doch mit der europäischen KI-Verordnung (KI-VO), weithin als AI Act bekannt, endet die regulatorische Schonzeit. Ab dem 2. August 2026 gelten umfassende Transparenzregeln, die neue rechtliche Vorgaben für nahezu jeden mit sich bringen, der generative KI im beruflichen Kontext nutzt.

Dieser Leitfaden übersetzt die neuen Verordnungstexte in die Praxis und beantwortet die zentralen Fragen für die Marketingbranche: Wer gilt rechtlich als betroffener „Betreiber“? Welche KI-generierten Bilder, Videos und Audios müssen künftig zwingend wie gekennzeichnet werden – und was genau verbirgt sich in diesem Zusammenhang hinter dem normativen Begriff des „Deepfakes“? Zudem beleuchtet der Artikel, in welchen Fällen Textinhalte markiert werden müssen und welche wettbewerbs- und ordnungsrechtlichen Folgen eine fehlerhafte oder fehlende Kennzeichnung nach sich ziehen kann.

Kennzeichnung von Bildern, Videos & Audios

Für die tägliche Marketing-Praxis und die Content-Erstellung ist Artikel 50 Absatz 4 KI-VO die zentrale Vorschrift. Diese Norm ist strukturell in zwei Unterabsätze geteilt. Der erste Unterabsatz statuiert eine unmissverständliche Offenlegungspflicht für die berufliche Nutzung von generativer KI bei visuellen und auditiven Medien:

„Betreiber eines KI‑Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die ein Deepfake sind, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.“

Um diese Pflicht rechtssicher umzusetzen, müssen Agenturen und Marketing-Teams zwei zentrale Begriffe des Gesetzes genau verstehen und in ihrem Agentur-Alltag anwenden können: Wer gilt als „Betreiber“ und was genau qualifiziert einen Inhalt als „Deepfake“?

Wer muss KI-Inhalte kennzeichnen?

Die Kennzeichnungspflicht nach Art. 50 Abs. 4 KI-VO trifft nicht die Entwickler der KI-Systeme (wie etwa die Anbieter der Software), sondern adressiert ausdrücklich die sogenannten „Betreiber“.

Doch wer genau fällt unter diesen rechtlichen Begriff? Die KI-Verordnung definiert den Betreiber in Art. 3 Nr. 4 wie folgt:

“ eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI‑System in eigener Verantwortung verwendet, es sei denn, das KI‑System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet“

Was bedeutet diese Definition konkret für den Agentur- und Unternehmensalltag?

Erstens: Um rechtlich als Betreiber zu gelten, müssen keine eigenen KI-Systeme entwickelt werden. Es genügt völlig, wenn ein fremdes KI-Tool – wie beispielsweise Nano Banana, DALL-E oder Midjourney – in der täglichen Arbeit als Anwender genutzt wird.

Zweitens: Der entscheidende Faktor ist der berufliche Kontext. Sobald ein KI-generiertes Bild nicht mehr rein privat im Familienkreis geteilt wird, sondern für einen Kunden-Post, eine Werbekampagne oder auf der eigenen Unternehmenswebsite zum Einsatz kommt, liegt ein Handeln in eigener Verantwortung vor.

Damit ist die rechtliche Definition des Betreibers erfüllt. Folglich ist genau diese anwendende Person (oder das Unternehmen) in der Pflicht, die entsprechenden Kennzeichnungsanforderungen gegenüber dem Betrachter der Inhalte umzusetzen.

Wann müssen Bilder, Videos oder Audios gekennzeichnet werden?

Kennzeichnungspflicht bei Deepfakes

Ein Bild, Video oder Audio muss immer dann gekennzeichnet werden, wenn es sich um ein „Deepfake“ handelt. Dieser Begriff wird im allgemeinen Sprachgebrauch häufig auf böswillig manipulierte Videoaufnahmen von Personen des öffentlichen Lebens verengt. Die juristische Definition in der KI-Verordnung ist jedoch deutlich weiter gefasst. Nach Art. 3 Nr. 60 KI-VO bezeichnet der Ausdruck „Deepfake“

„einen durch KI erzeugten oder manipulierten Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würde.“

Entscheidend ist dabei nicht, ob eine bewusste Täuschungsabsicht besteht – es zählt einzig und allein, ob der Inhalt auf einen durchschnittlichen Betrachter wie eine echte Aufnahme wirkt.

Eine noch nicht abschließend geklärte Frage, die einen gewissen Interpretationsspielraum lässt, ist hierbei das gesetzliche Merkmal der Ähnlichkeit. Muss ein KI-generierter Inhalt zwingend einer ganz bestimmten, realen Person (etwa einem identifizierbaren Prominenten) ähneln? Oder reicht es aus, wenn ein künstlich erschaffenes Gesicht oder eine Stimme so realistisch wirkt, dass Konsumenten sie für einen echten Menschen halten könnten, obwohl diese Person rein fiktiv ist?

Zwar stützt der reine Wortlaut der Verordnung auf den ersten Blick eher die enge Auslegung, da in Art. 3 Nr. 60 explizit von der Ähnlichkeit mit „wirklichen Personen“ die Rede ist. Dennoch spricht aus rechtlicher Sicht vieles für das weite Verständnis.

Der gesetzgeberische Zweck der Kennzeichnungspflicht liegt nach den Erwägungsgründen der KI-VO weniger im klassischen Individualschutz (also dem Schutz der Persönlichkeitsrechte einzelner Personen), sondern in erster Linie im Schutz der Allgemeinheit vor Desinformation (vgl. Martini/Wendehorst/Martini, KI-VO Art. 50 Rn. 127).

In der Fachliteratur wird vor diesem Hintergrund zutreffend argumentiert, dass es für die Transparenzpflicht nicht darauf ankommen darf, ob das generierte Material (etwa ein Audio-Voiceover oder ein Porträtfoto) einer real existierenden oder einer nicht existierenden Person entstammt. Das entscheidende Kriterium ist das Resultat: In beiden Konstellationen entsteht beim Publikum eine Täuschung mit erheblichem Desinformationspotenzial (vgl. Engel-Bunsas, RDi 2025, 292).

Auch die Wettbewerbszentrale neigt in ihrem veröffentlichten Leitfaden zur KI-Kennzeichnung zu dieser weiten Auffassung und betont, dass allgemeine Merkmale von Menschen, Tieren oder Orten ausreichen, wenn sie realistisch nachgebildet werden.

Bis zur finalen Klärung durch die Rechtsprechung empfiehlt sich daher eine vorsichtige Auslegung: Wenn ein Bild, ein Video oder eine Tonspur so wirkt, als könne es sich um eine authentische Aufnahme handeln, sollte zwingend gekennzeichnet werden.

Praxis Beispiele:

In der Marketing-Praxis ist die Abgrenzung zwischen erlaubter Bildbearbeitung und kennzeichnungspflichtigem Deepfake oft fließend. Um die gesetzlichen Vorgaben greifbar zu machen, bieten sich folgende Fallbeispiele an:

Fallbeispiel 1: Vollständig KI-generierte Lifestyle-Bilder

Wird für eine Social-Media-Kampagne per Text-Eingabe (Prompt) das fotorealistische Bild einer jungen Familie generiert, die an einem real existierenden Strand ein bestimmtes Erfrischungsgetränk konsumiert, entsteht eine fiktive, aber echt wirkende Situation. Da die abgebildeten Personen nicht existieren, das Bild jedoch wie ein authentisches Fotoshooting wirkt, dürfte hier regelmäßig eine Kennzeichnungspflicht bestehen.

Fallbeispiel 2: Virtuelle Influencer und KI-Videos im UGC-Stil

Ein Video zeigt eine augenscheinlich reale Person, die im Selfie-Modus (als sogenannter User Generated Content) eine authentisch wirkende Produktbewertung abgibt. Tatsächlich handelt es sich bei der sprechenden Person jedoch um einen vollständig KI-generierten Avatar. Da hier visuell und auditiv der Eindruck erweckt wird, ein echter Mensch berichte von seinen Erfahrungen, spricht vieles für das zwingende Erfordernis einer Kennzeichnung.

Fallbeispiel 3: Voiceovers und KI-Audio in Werbespots

Ein Werbespot verwendet echtes, dokumentarisches Filmmaterial von Mitarbeitern im Büro. Die erklärende Sprecherstimme aus dem Off („Voiceover“) wurde jedoch mit einem KI-Sprachgenerator erstellt, der menschliche Betonungen, Emotionen und Atempausen täuschend echt imitiert. Auch wenn das Bildmaterial authentisch ist, spricht die Täuschungswirkung der Tonspur für eine Kennzeichnungspflicht des gesamten Moduls.

Fallbeispiel 4: Der fotorealistische Produkt-Prototyp

Eine Möbelmarke nutzt KI, um das Bild eines völlig neuen Design-Sessels zu generieren, der physisch noch gar nicht existiert. Das KI-generierte Möbelstück wird in das fotorealistische Bild eines lichtdurchfluteten Lofts gerendert. Dem Betrachter wird hier ein authentisches Foto eines echten Produkts in einer realen Umgebung suggeriert. Da das abgebildete Kernprodukt synthetisch erzeugt wurde und eine Täuschungswirkung beim Verbraucher entsteht, dürfte dies eindeutig als Deepfake zu qualifizieren sein und eine Kennzeichnung erfordern.

Die Post-Production-Ausnahme: Was in der Regel erlaubt bleibt

Nicht jede Bildbearbeitung mit KI löst die Kennzeichnungspflicht aus. Die klassische Post-Production – etwa das Entfernen eines Pickels oder die Farbkorrektur bei einem Produktfoto – fällt in der Regel nicht unter die Kennzeichnungspflicht. Hierbei handelt es sich um übliche Bildbearbeitung, nicht um KI-Generierung im Sinne der Verordnung.

Fallbeispiel 5: Die grenzfreie Bildoptimierung

Ein echtes Foto eines physisch existierenden Sneakers wird farblich an eine neue Kollektion angepasst, leichte Klebereste an der Sohle werden retuschiert und ein störender Schatten im Hintergrund wird per KI-Füllwerkzeug sauber entfernt. Die Aufnahme bleibt im Kern echt und es entsteht keine völlig neue, realitätsverzerrende Szene. In diesem Fall ist in der Regel keine Kennzeichnung erforderlich.

Wird der gleiche Sneaker jedoch mit KI an die Füße eines fiktiven Models auf einem Skateboard in der Halfpipe gerendert, entsteht eine neue, real wirkende Situation. In diesem Fall dürfte eine Kennzeichnung notwendig werden.

Die juristische Faustregel für die Bildbearbeitung lautet demnach: Sobald KI den Inhalt so umgestaltet, dass eine Aufnahmesituation suggeriert wird, die es so nie gab, ist rechtliche Vorsicht geboten.

Ausnahme für offensichtlich künstliche Inhalte

Völlig unkritisch sind hingegen KI-Inhalte, deren künstlicher Charakter auf den ersten Blick offensichtlich ist. Stilisierte Illustrationen im flachen Zeichnungsstil, bewusst künstliche Key Visuals im Comiclook oder grobe Skizzen dürften nicht gekennzeichnet werden müssen, da ohnehin kein Betrachter sie für echte Fotografien halten würde.

Wie kennzeichnet man KI-Inhalte richtig?

Hinsichtlich der formalen Ausgestaltung der Kennzeichnung gibt die KI-VO konkrete Leitplanken vor. Wie diese Offenlegung technisch und optisch zu erfolgen hat, regelt Art. 50 Abs. 5 KI-VO. Die Norm verlangt:

„Die […] Informationen werden den betreffenden natürlichen Personen spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt. Die Informationen müssen den geltenden Barrierefreiheitsanforderungen entsprechen.“

Dieser juristisch etwas sperrige Verordnungstext beinhaltet für die Marketingpraxis zwei ganz entscheidende zeitliche und optische Hürden, die zwingend zu nehmen sind:

1. Der Zeitpunkt: „Spätestens bei der ersten Interaktion oder Aussetzung“

Mit dieser Vorgabe stellt der Verordnungsgeber sicher, dass der Betrachter transparent informiert ist, bevor er den Inhalt konsumiert oder auf ihn reagiert. Eine Platzierung, die der Nutzer erst durch aktives Suchen findet (z. B. im Impressum der Website oder tief verborgen in den AGB), reicht rechtlich nicht aus.

Um die Anforderung der „ersten Interaktion“ zu erfüllen, muss der Hinweis im selben Moment wahrnehmbar sein wie der Inhalt selbst. Praktisch heißt das: Die Kennzeichnung sollte direkt am Inhalt oder unmittelbar daneben stehen.

Bei Bildern (Aussetzung):

Wenn der Nutzer durch seinen Social-Media-Feed oder eine Website scrollt und das Bild sieht, muss die Kennzeichnung in diesem Moment (der ersten „Aussetzung“) sofort sichtbar sein. Dies gelingt am sichersten durch einen kontrastreichen Hinweis direkt auf dem Bild selbst (z. B. am unteren Bildrand oder als Wasserzeichen). Alternativ muss der Hinweis unmittelbar am Bild stehen, etwa in der sichtbaren Bildunterschrift oder im direkten Begleittext (z. B. dem Post-Text auf Social Media). Ein versteckter Hinweis im unsichtbaren HTML-Code (wie etwa im Alt-Text für Suchmaschinen) reicht rechtlich nicht aus.

Bei Videos (Interaktion):

Wenn ein Nutzer auf „Play“ drückt, darf der Hinweis, dass das Video künstlich erzeugt wurde, nicht erst im Abspann nach drei Minuten erscheinen. Die Kennzeichnung sollte mindestens am Anfang des Videos eingeblendet werden. Noch sicherer ist es, wenn die Kennzeichnung in regelmäßigen Abständen im Laufe des Videos erfolgt. Zusätzlich sollte sie in der Beschreibung oder im Begleittext stehen. So ist die Kennzeichnung auch dann sichtbar, wenn das Video stumm im Feed abgespielt wird oder wenn nur der Beschreibungstext gelesen wird.

Bei Audioinhalten (z.B. Podcasts):

Die Kennzeichnung sollte dort erfolgen, wo das Audio bereitgestellt wird – zum Beispiel in der Episodenbeschreibung, im Titelzusatz oder in den Metadaten, die der Nutzer vor dem Klick auf „Play“ sieht. Ergänzend bietet sich ein gesprochener Hinweis zu Beginn der Tonspur an.

2. Die Optik: „In klarer und gut wahrnehmbarer Form“

Dies bedeutet, dass die Kennzeichnung kurz, prägnant und unmissverständlich sein muss. Der Hinweis muss sich optisch vom restlichen Inhalt abheben und eindeutig sein. Die Kennzeichnung muss zudem barrierefrei sein – also auch für Menschen mit Seh- oder Höreinschränkungen wahrnehmbar. Ein kleiner Hinweis in winziger grauer Schrift am unteren Bildrand dürfte diesen Anforderungen nicht genügen.

Geeignete, unmissverständliche Formulierungen:

  • Bild mit KI erstellt
  • Abbildung KI-generiert (Ein praxisnahes Beispiel findet sich direkt auf dieser Website: Das Titelbild dieses Beitrags sowie weitere Visuals sind transparent mit genau diesem Hinweis versehen. Auch wenn es sich bei einigen dieser Bilder um offensichtlich künstliche 3D-Grafiken handelt, bei denen eine Kennzeichnung rechtlich nicht zwingend wäre, empfiehlt sich als Best Practice im Sinne einer konsequenten, digitalen Transparenzkultur oft eine freiwillige Deklaration).
  • Video mit KI erzeugt
  • Audio mit KI erstellt
  • Künstlich erzeugte Stimme

Hinweis zum EU-Verhaltenskodex:

Die EU-Kommission hat einen freiwilligen Verhaltenskodex zur Transparenz von KI-generierten Inhalten entwickelt, der als praktische Orientierung dienen kann. Derzeit liegt der zweite Entwurf vor; die Veröffentlichung des endgültigen Verhaltenskodex wird für Juni erwartet.

Er empfiehlt beispielsweise die Verwendung von Icons oder Labels mit den Akronymen „AI“ oder „KI“, ergänzt durch kurze Texte wie „Erzeugt mit KI“ oder „Manipuliert mit KI“. Für Audioinhalte soll ein hörbarer Hinweis in einfacher Sprache eingefügt werden. Bei Videos empfiehlt der Kodex, dass die Kennzeichnung bei Livestreams durchgehend eingeblendet werden sollte; bei aufgezeichneten Videos genügt eine Anzeige zu Beginn und in regelmäßigen Abständen.

Zudem betont der Kodex die Barrierefreiheit und empfiehlt, Kennzeichnungen so zu gestalten, dass sie mit dem Inhalt „mitreisen“, wenn dieser weiterverbreitet wird. Wer sich an diesen Empfehlungen orientiert, dürfte auf der sicheren Seite sein.

Wann müssen Texte gekennzeichnet werden?

Bei KI-generierten Texten ist die Regelung durch den europäischen Verordnungsgeber etwas differenzierter gestaltet worden. Hier greift nicht der erste, sondern der zweite Unterabsatz des Art. 50 Abs. 4 KI-VO. Die Vorschrift statuiert:

„Betreiber eines KI‑Systems, das Text erzeugt oder manipuliert, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, müssen offenlegen, dass der Text künstlich erzeugt oder manipuliert wurde. Diese Pflicht gilt nicht, […] wenn die durch KI erzeugten Inhalte einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.“

Zwei entscheidende Merkmale fallen bei diesem Gesetzestext sofort ins Auge: Erstens muss der Text veröffentlicht werden (interne Agentur-Memos oder E-Mails an Kollegen sind außen vor). Zweitens – und das ist der entscheidende Filter für das Marketing – muss der Text Angelegenheiten von öffentlichem Interesse behandeln.

Was unter diesen unbestimmten Rechtsbegriff fällt, wird durch die Erwägungsgründe der KI-VO und die allgemeine Auslegung spezifiziert: Gemeint sind primär tagesaktuelle Nachrichten, politische Berichterstattung, medizinische Fachinformationen, behördliche Warnhinweise oder Beiträge zu drängenden gesellschaftlichen Themen (z. B. Klimawandel, Wahlen, Krisen). Der Gesetzgeber möchte verhindern, dass die demokratische Meinungsbildung durch unerkannte, massenhaft synthetisch erzeugte Artikel manipuliert wird.

Für die gewerbliche Praxis bedeutet diese Einschränkung eine erhebliche Erleichterung: Klassische E-Commerce-Produktbeschreibungen, rein werbliche Landingpages, werbliche Social-Media-Posts oder SEO-Ratgeberartikel ohne gesellschaftliche Relevanz dürften in der Regel nicht unter den Begriff des öffentlichen Interesses fallen. Ein Unternehmen, das ChatGPT nutzt, um die Produkttexte für seinen Online-Shop oder den Newsletter zu erstellen, dürfte diese folglich nicht zwingend als „KI-generiert“ kennzeichnen müssen.

Die redaktionelle Ausnahme (Human-in-the-Loop)

Aber selbst wenn ein Text tatsächlich ein Thema von öffentlichem Interesse behandelt (beispielsweise ein juristischer Fachbeitrag einer Kanzlei über neue EU-Gesetze), hält Art. 50 Abs. 4 Unterabs. 2 KI-VO eine enorm wichtige Rückausnahme bereit. Das Gesetz besagt, dass die Kennzeichnungspflicht nicht gilt, „wenn die KI-generierten Inhalte einer menschlichen Überprüfung oder redaktionellen Kontrolle unterliegen und eine natürliche Person oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.“

Das nennt man den „Human-in-the-Loop“-Ansatz. Ein Verlag, ein Unternehmen oder eine Agentur, die KI-generierte Text-Entwürfe von Redakteuren, Fachexperten oder Copywritern prüfen, inhaltlich anpassen und überarbeiten lässt, dürfte diese nicht kennzeichnen müssen – solange am Ende ein Mensch die Verantwortung für die Richtigkeit und die Publikation des Textes übernimmt. Ein bloßes, oberflächliches Überfliegen auf Rechtschreibfehler dürfte für diese „redaktionelle Kontrolle“ zwar kaum ausreichen, eine inhaltliche Durchdringung und Freigabe durch Fachpersonal jedoch schon.

In der Praxis bedeutet dies: Da seriöse Unternehmen KI-generierte Fachtexte in den meisten Fällen zumindest auf fachliche Richtigkeit (Stichwort: KI-Halluzinationen) und inhaltliche Stimmigkeit prüfen, bevor sie veröffentlicht werden, greift diese redaktionelle Ausnahme regelmäßig.

Eine gesetzliche Kennzeichnungspflicht für Texte besteht daher in der Unternehmenspraxis eher selten – sie dürfte nur den Ausnahmefall darstellen, etwa bei vollständig automatisierten News-Portalen oder Bots, die ohne jegliche menschliche Endkontrolle (Quality Assurance) und redaktionelle Freigabe massenhaft Artikel zu gesellschaftlichen Themen ins Netz stellen. Wer KI als cleveres Werkzeug (Assistenz) nutzt, aber am Ende menschliche Qualitätssicherung und Letztverantwortung sicherstellt, dürfte auf die Kennzeichnung verzichten können.

Praxistipp: Um im Zweifelsfall nachweisen zu können, dass eine redaktionelle Überprüfung stattgefunden hat, empfiehlt es sich zwingend, diese Kontrolle intern zu dokumentieren – etwa durch einen formalen Freigabe-Status im Content-Management-System (CMS) oder eine dokumentierte Redigierung in der Projektmanagement-Software.

Die Risiken: Bußgelder, UWG-Abmahnungen und „AI Washing“

Wer die Kennzeichnungspflichten ignoriert, riskiert mehr als nur einen Verweis. Die KI-VO sieht in Art. 99 Abs. 4 empfindliche Bußgelder vor, die bei Verstößen gegen die Transparenzpflichten aus Art. 50 bis zu 15 Millionen Euro oder 3 Prozent des weltweiten Jahresumsatzes betragen können. Auch wenn diese maximalen Bußgeldsummen für den durchschnittlichen Agentur-Alltag meist nur theoretischer Natur sein dürften, verdeutlichen sie den Stellenwert, den der europäische Verordnungsgeber der Transparenz beimisst.

Für die Agentur- und Unternehmenspraxis sollten jedoch die wettbewerbsrechtlichen Risiken nach dem UWG (Gesetz gegen den unlauteren Wettbewerb) mindestens ebenso aufmerksam im Blick behalten werden.

Verstöße gegen die KI-Kennzeichnungspflicht können unter bestimmten Umständen als Wettbewerbsverstoß anzusehen sein, insbesondere als Irreführung durch Unterlassen nach § 5a UWG (vgl. Köhler/Feddersen, UWG § 5a Rn. 2.25h-2.25j). Danach handelt unlauter, wer einem Verbraucher eine wesentliche Information vorenthält, die dieser benötigt, um eine informierte geschäftliche Entscheidung zu treffen. Dies ist insbesondere dann relevant, wenn KI-Inhalte im geschäftlichen Kontext eingesetzt werden und die fehlende Kennzeichnung die Kaufentscheidung beeinflussen kann.

Konkurrenten, Verbraucherschutzverbände und qualifizierte Einrichtungen können in solchen Fällen Unterlassungsansprüche geltend machen. Auch die Wettbewerbszentrale weist in ihrem Leitfaden explizit darauf hin, dass Verstöße gegen die KI-VO aus ihrer Sicht unlauteren Wettbewerb nach dem UWG darstellen können.

Besonders riskant ist zudem das sogenannte „AI Washing“: Hierbei wird ein KI-Einsatz suggeriert oder versprochen, obwohl tatsächlich Menschen die Arbeit erledigen. Auch diese umgekehrte Täuschung kann als unlauterer Wettbewerb gewertet werden. Ein Unternehmen, das mit „KI-gestützter Beratung“ wirbt, aber in Wahrheit menschliche Berater einsetzt, riskiert Abmahnungen.

Zusammenfassende Einordnung für die Praxis

Die KI-Kennzeichnungspflichten nach der KI-Verordnung stellen für Marketingabteilungen und Agenturen keine unüberwindbare Hürde dar, erfordern jedoch eine proaktive Anpassung der internen Workflows.

Insbesondere im Bereich der visuellen Inhalte – bei fotorealistischen Renderings, synthetischen Stimmen oder KI-generierten Modellen – wird künftig häufig eine transparente Kennzeichnung erforderlich sein, um dem Schutzzweck der Norm (der Vermeidung von Desinformation) gerecht zu werden. Bei der reinen Texterstellung bleiben die Gestaltungsspielräume dank der redaktionellen Ausnahme („Human-in-the-Loop“) hingegen erfreulich groß.

Angesichts der noch fehlenden Rechtsprechung und der fließenden Grenzen zwischen erlaubter Bildoptimierung und kennzeichnungspflichtigem Deepfake empfiehlt es sich für die Marketingpraxis, im Zweifel den sichereren Weg zu wählen: Wer unsicher ist, ob ein Asset rechtlich bereits als Deepfake zu qualifizieren ist, sollte es transparent kennzeichnen.

Frei nach der Devise: Lieber einmal zu viel als einmal zu wenig. Das zeugt nicht von juristischer Unsicherheit, sondern von einer zeitgemäßen, digitalen Vertrauenskultur, die nicht nur Verbraucher schätzen, sondern die auch effektiv vor UWG-Abmahnungen und behördlichen Sanktionen schützt.

Individuelle Beratung im KI-Recht

Die Implementierung der neuen Transparenzpflichten nach dem AI Act stellt Marketing-Teams und Agenturen vor komplexe Herausforderungen. Ein falscher Umgang mit Deepfakes oder automatisierten Texten birgt nicht nur Reputationsrisiken, sondern auch handfeste wettbewerbsrechtliche Abmahngefahren.

Ich unterstütze Ihr Unternehmen bei der rechtskonformen Umsetzung – beispielsweise durch:

  • Prüfung von KI-Inhalten: Juristische Bewertung Ihrer aktuellen Marketing-Assets, Kampagnen und Websites auf zwingende Kennzeichnungspflichten (Deepfake-Check).
  • Entwicklung von Kennzeichnungs-Richtlinien: Erstellung rechtssicherer, praxisnaher Guidelines und Workflows für Ihre Mitarbeiter und Content-Teams.

Einen detaillierten Überblick über diese und weitere Beratungsangebote im KI-Recht (u. a. zu Urheberrechts- und Haftungsfragen beim Einsatz generativer KI) finden Sie auf meiner Leistungsseite zum KI-Recht.

Lassen Sie uns Ihre Marketing-Prozesse rechtzeitig absichern.
Nehmen Sie hier Kontakt mit mir auf für eine erste Einschätzung Ihres individuellen Handlungsbedarfs.

Aktuelles zum KI-Recht

OLG Düsseldorf: Keine Urheberrechtsverletzung durch KI-generiertes Bild

Das Oberlandesgericht Düsseldorf hat mit Urteil vom 2. April 2026 (Az.: I-20 W 2/26) im Rahmen eines einstweiligen Verfügungsverfahrens entschieden, dass die Verwendung eines urheberrechtlich geschützten Fotos als Vorlage für eine KI-Software nicht automatisch zu einer Urheberrechtsverletzung führt. Das Urteil betrifft einen Fall, in dem eine Tierfotografin gegen die Veröffentlichung eines KI-generierten Bildes vorging, das […]

VG Kassel bestätigt Täuschung durch KI bei Bachelorarbeit

Das Verwaltungsgericht Kassel hat mit Urteil vom 25. Februar 2026 (Az.: 7 K 2134/24.KS) entschieden, dass die Nutzung generativer künstlicher Intelligenz (KI) bei einer Bachelorarbeit ohne Kennzeichnung als Täuschung gewertet werden kann. Der Kläger, ein Student im Studiengang Informatik, hatte die Arbeit zum Thema „Vergleich unterschiedlicher Bewertungskriterien für Zeitreihen“ eingereicht und war im Kolloquium an […]