Künstliche Intelligenz in der Kommunikation

Was der EU AI Act jetzt verlangt

Der EU AI Act ist das erste europaweit gültige Regelwerk für den Einsatz von künstlicher Intelligenz. Der Jurist, Philosoph und KI-Ethik-Experte Ass.-Prof. Dr. Marlon Possard erklärt im Interview, welche Pflichten jetzt auf Unternehmen zukommen – und warum gerade Kommunikationsverantwortliche besonders gefordert sind.

© freepik, Phonlamaistudio

Was ist für Sie das deutlichste Signal des EU KI-Acts?
Das deutlichste Signal des EU KI-Acts ist jedenfalls, dass Europa im Bereich der KI-Regulierung nun eine klare Führungsrolle einnimmt. Der risikobasierte Ansatz (= Verbote, Hochrisikobereiche, geringe Risiken), der mittels des AI Acts geschaffen wurde, richtet sich klar aus auf den Schutz von Grundrechten und der Transparenz. Man kann auch von einem Paradigmenwechsel sprechen, weil KI-Innovation zwar weiterhin erlaubt ist, aber nun doch auch klare Grenzen hat. Mit dem AI Act wurde also ein Referenzrahmen geschaffen, ähnlich wie das damals bei der DS-GVO der Fall war. Die Botschaft: KI-Technologieentwicklung muss grundrechtskonform, menschenzentriert und vertrauenswürdig sein.

Warum sind gerade Kommunikations- und Marketingverantwortliche besonders gefordert, sich mit den Auswirkungen und Pflichten des EU KI-Acts auseinanderzusetzen?
Das ist eine sehr wichtige Frage – wie ich finde – denn Kommunikations- und Marketingverantwortliche stehen im Zentrum der praktischen KI-Nutzung. Ich denke da etwa an die Möglichkeiten der generativen KI (also Texte, Bilder oder Chatbots), an automatisiertes Targeting, an Personalisierung oder an Social-Media-Monitoring. Genau hier greifen zentrale Pflichten des AI Acts. Und die lauten:Transparenz, Kennzeichnung von KI-generierten Inhalten, Vermeidung manipulativer Praktikenund Einhaltung ethischer Standards. Zudem nehmen Personen aus dem Kommunikations- und Marketingbereich eine Schlüsselrolle in der internen und externen Kommunikation ein. Letztlich gilt:Wer nicht gemäß den Bestimmungen des AI Acts handelt, riskiert nicht nur rechtliche Sanktionen, sondern auch Reputationsschäden. Daher ist es von Priorität, sich damit frühzeitig auseinanderzusetzen.

Kennzeichnungspflicht – was bedeutet „transparent“?

Einer der meistdiskutierten Punkte ist die Kennzeichnungspflicht für KI-generierte Inhalte. Wer ist laut Verordnung konkret in der Pflicht?
Man kann sagen, dass die Kennzeichnungspflicht primär zwei Ebenen betrifft: Einerseits sind da die Anbieter:innen von generativen KI-Systemen, also Entwickler:innen (wie zum Beispiel Google oder OpenAI), andererseits auch die Nutzer:innen von KI-Systemen. Während die Anbieter:innen bzw. Entwickler:innen sicherstellen müssen, dass ihre KI-Systeme die Möglichkeit bieten, KI-generierte Inhalte als solche tatsächlich kenntlich zu machen, müssen Nutzer:innen darauf achten, dass sie beim Einsatz von KI-Inhalten (wie etwa auf Webseiten oder in sozialen Medien) klar darauf hinweisen, dass diese nicht menschlich erstellt wurden. Das ergibt sich aus Art. 50 des AI Acts und die Pflicht gilt sowohl für Unternehmen und Agenturen als auch für alle Kommunikationsabteilungen und Medien.

Was bedeutet das in der täglichen Kommunikationsarbeit – etwa beim Einsatz von Text- oder Bildgeneratoren?
Ganz konkret bedeutet das für die Praxis: Wenn Texte, Bilder oder Videos mit KI erstellt werden und für Außenstehende nicht erkennbar ist, dass sie künstlich erzeugt sind, muss dies explizit deutlich gemacht werden. Das kann zum Beispiel mit einem Hinweis geschehen, dass dieser Inhalt mithilfe von KI erstellt wurde. Das betrifft sehr viele Bereiche, beispielsweise Social-Media-Posts, Werbekampagnen, Pressemitteilungen oder auch den klassischen Newsletter. Gerade „ChatGPT“ ist in vielen Agenturen im Einsatz. Dabei muss man sich bewusst sein, dass KI-Ergebnisse nicht einfach kommentarlos veröffentlicht werden dürfen. Mein Vorschlag: Kommunikationsverantwortliche sollten klare interne Richtlinien schaffen – und zwar bezogen auf die Frage, welche KI-Tools genutzt werden dürfen und wie die Prüfung und Freigabe von solchen Inhalten erfolgt.

KI-Kompetenz – neue Verantwortung, neues Wissen

Der KI-Act nennt die Pflicht zum Nachweis von KI-Kompetenz – was genau ist damit gemeint?
Der AI Act verpflichtet primär Anbieter:innen und Nutzer:innen von KI-Systemen dazu, ausreichende Kompetenz und Schulung im Umgang mit KI nachzuweisen. Das ergibt sich aus Art. 4 des AI Acts und betrifft drei Bereiche: Technische, rechtliche und ethische Kenntnisse. Es geht also um ein interdisziplinäres Verständnis von KI. Als Jurist und Philosoph bin ich schon ein wenig stolz darauf, dass nun auch endlich Ethik-Kompetenz eingefordert wird, denn ethische Standards sind heute in jedem Unternehmen wichtiger denn je (etwa in Bezug auf Fragen der Diskriminierung durch KI-Systeme) – oder sollten es zumindest sein. Als KI-Kompetenz kann man die Fähigkeit zusammenfassen, ein KI-System verantwortungsvoll zu verstehen, anzuwenden, zu überwachen und mögliche Risiken korrekt einzuschätzen. Die Verantwortung liegt am Ende bei den Unternehmen, weil sie sicherstellen müssen, dass Mitarbeiter:innen, die mit KI arbeiten oder sie überwachen, entsprechend qualifiziert sind. Ausgenommen vom KI-Kompetenznachweis ist nur der rein private Einsatz von KI.

Welche Zielgruppen in Unternehmen sollten besonders geschult werden?
Ich denke da zunächst etwa an Abteilungen, die KI-Systeme direkt anwenden (wie zum Beispiel die HR-Abteilung oder die Marketing-Abteilung). Prioritär ist natürlich auch die Schulung von Führungskräften, die Entscheidungen zum KI-Einsatz treffen. Nicht zu vergessen sind auch IT- und Data-Teams, die KI entwickeln und in unternehmerische Prozesse integrieren. Schlussendlich rate ich dringend, in allen Belangen auch die Rechts- und Compliance-Abteilungen frühzeitig in die Schulung miteinzubinden. Meiner Einschätzung nach werden Rechtsabteilungen zukünftig eine noch wichtigere Rolle spielen, als sie es jetzt schon tun. Der Einsatz von KI verändert eben auch die Arbeitswelt.

Wie können Unternehmen sicherstellen, dass ihre Mitarbeitenden im Umgang mit KI „up to date“ bleiben – auch wenn sich Technologien ständig weiterentwickeln?
Unternehmen sollten auf eine Kombination aus kontinuierlicher Weiterbildung und strukturierter Governance setzen. Das ist jedenfalls mein persönlicher Tipp. Speziell der Aufbau eines KI-Schulungsprogramms, das regelmäßig aktualisiert wird, könnte dabei hilfreich sein. Zunehmend wichtiger wird auch die Zusammenarbeit mit Hochschulen oder externen KI-Trainer:innen, die bereits theoretische und praktische KI-Erfahrung mitbringen. Was sich in einigen Unternehmen bereits jetzt schon zeigt, ist die Einrichtung interner KI-Wissensplattformen bzw. KI-Learning-Plattformen. Eine effiziente und zugleich kollegiale Idee können auch „KI-Sprechstunden“ oder „Lunch & Learn“-Sessions sein. Wichtig ist aber das Verständnis, dass KI-Kompetenz kein einmaliger Schulungsakt ist, sondern ein kontinuierlicher Prozess.

Urheberrecht, Wettbewerbsrecht & der kreative Raum

Was bedeutet der Einsatz von generativer KI aus urheberrechtlicher Sicht? Wem gehört ein Text oder Bild, das von KI erzeugt wurde?
Das Urheberrecht ist im Kontext von KI nicht ganz so einfach. Grundsätzlich gilt aus urheberrechtlicher Sicht aber, dass nur menschliche Schöpfungen geschützt sind. Das Urheberrecht bezieht sich also auf eine natürliche Person, die ein KI-System aber nicht ist. Inhalte, die also vollständig von einer KI erzeugt wurden, gelten daher nicht als urheberrechtlich geschützt. Juristisch ausgedrückt: Es mangelt an der sogenannten „menschlichen Schöpfungshöhe“. Daraus folgt, dass der Text oder das Bild im urheberrechtlichen Sinne prinzipiell niemandem gehört. Nutzer:innen können zwar faktisch darüber verfügen, haben aber wiederum keine exklusiven Rechte. Komplex wird es dann, wenn Menschen kreativ in die KI-Eingabe (zum Beispiel durch Prompt oder Bearbeitung) eingreifen. Dann kann ein gewisser urheberrechtlicher Schutz möglich sein, sofern eine eigenständige schöpferische Mitwirkung vorliegt. Da kann dann durchaus eine Miturheberschaft in Frage kommen. Man sieht: Wir sind mittendrin, statt nur dabei und es gibt noch einige Rechtsunsicherheiten. Vieles werden zukünftig wohl Höchstgerichte klären müssen.

Wie sieht es im Wettbewerbsrecht aus: Besteht die Gefahr unlauterer Praktiken durch automatisierte Contentproduktion?
Ja, das Wettbewerbsrecht greift auch bei KI-generierten Inhalten, insbesondere im Kontext des UWG. Hier lauern einige wettbewerbsrechtliche Gefahren, beispielsweise Täuschung, Irreführung oder Verdrängung. Wenn KI-generierte Inhalte als menschlich ausgegeben werden, ohne Kennzeichnung, dann ist das rechtlich nicht ganz unproblematisch. Und weil das Thema gegenwärtig so aktuell ist, merke ich an, dass dies auch automatisiert erstellte Produktbewertungen betrifft. Die von Ihnen angesprochene Contentproduktion ist insofern mit Vorsicht zu genießen, weil mittels KI kleinere Anbieter:innen durchaus benachteiligt werden können (etwa dann, wenn sie massenhaft erfolgt). Auch wenn das de jure keinen Wettbewerbsverstoß an sich darstellt, kann dieser Prozess unter bestimmten Bedingungen problematisch sein (ich denke da an automatisierte Irreführung oder gar Rufschädigung). Grundsätzlich gilt: Auch KI-basierter Content unterliegt denselben Regeln wie jener, der von Menschen erstellt wird. KI-erstellter Content darf nicht täuschen, diskriminieren oder irreführen.

Darf ich KI-generierte Inhalte überhaupt als „mein Werk“ ausgeben – juristisch und ethisch?
Juristisch ist es zulässig, KI-generierte Inhalte zu verwenden, solange keine Rechte Dritter verletzt werden (problematisch sind beispielsweise Plagiate oder Markenverletzungen). Man darf solche KI-Inhalte nutzen und veröffentlichen, aber nicht als urheberrechtlich geschütztes Werk deklarieren, wenn es rein KI-generiert ist. Hier ist wieder Art. 50 des AI Acts von Priorität, nämlich die Transparenzpflicht. Aus ethischer Perspektive ist das Ausgeben als „mein Werk“ insofern fragwürdig, weil dadurch absichtlich der Eindruck erweckt wird, dass der Inhalt rein menschlich entstanden sei. Wenn dann KI-Inhalte als eigene kreative Leistung verkauft werden (zum Beispiel im Sektor der Wissenschaft, der Kunst oder des Journalismus), dann wird bewusst auf eine Transparenzkennzeichnung verzichtet, obwohl sie geboten wäre. Wer KI nutzt, sollte offen damit umgehen – und das eben nicht nur rechtlich, sondern auch im Sinne von Vertrauen und Integrität. Das ist primär eine Frage der eigenen moralischen Haltung.

Ethik & Verantwortungskultur im Umgang mit künstlicher Intelligenz

Viele sprechen von einer neuen Ära – manche gar von einer Industrialisierung der Kreativität. Teilen Sie diesen Eindruck?
Ja, dieser Eindruck ist berechtigt. Generative KI markiert einen fundamentalen Wandel: Kreative Leistungen wie die klassische Texterstellung, das Gestalten, das Komponieren oder das Präsentieren sind heute teilweise skalierbar, automatisierbar und rund um die Uhr verfügbar. Das erinnert durchaus an eine Art „Industrialisierung“ – nicht im Sinn von Entwertung, sondern im Sinne von massiver Effizienzsteigerung und Prozessverlagerung. Aber – und ich denke, das ist der wesentliche Punkt: Kreativität ist mehr als bloßer Output. Sie lebt letztlich ja von Originalität, Kontextbewusstsein und Relevanz – und genau das kann KI (noch) nicht eigenständig leisten. Deshalb stehen wir eher an der Schwelle zu einer – ich würde es so nennen – „hybriden Kreativitätskultur“, in der Mensch und Maschine zusammenarbeiten. In Zukunft werden Fragen des Digitalen Humanismus immer wichtiger werden – das ist jedenfalls meine Einschätzung. Denn es geht am Ende um eine Balance zwischen Mensch und Maschine und um den Umgang mit neuen Rollen, Kompetenzen und ethischen Fragen in einer digitalisierten Welt.

Wie lässt sich eine reflektierte, verantwortungsbewusste KI-Nutzung in der Unternehmenskommunikation verankern?
Durch klare Regeln, transparente Prozesse und Sensibilisierung. Unternehmen sollten definieren, wo KI eingesetzt wird, Inhalte kennzeichnen, Mitarbeiter:innen wirksam schulen und den KI-Einsatz auch kritisch begleiten. Wichtig ist: Menschliche Aufsicht und ethische Grundsätze müssen zentral bleiben – auch im KI-Zeitalter.

Empfehlungen für die Praxis

Was sollten Kommunikator:innen jetzt tun, um rechtlich und ethisch auf der sicheren Seite zu sein?
Sie sollten sich mit dem EU KI-Act vertraut machen, besonders mit den Pflichten zu Kennzeichnung, Transparenz und Urheberrecht. Wichtig ist außerdem, nur seriöse Tools zu nutzen, alle Inhalte sorgfältig zu prüfen und bei KI-generierten Beiträgen offen zu kommunizieren, dass KI beteiligt war. Gleichzeitig sollten sie intern mit den Abteilungen IT, Recht und Compliance zusammenarbeiten, um klare Leitlinien für den KI-Einsatz zu entwickeln.

Wie lässt sich eine verantwortungsvolle KI-Nutzung im Arbeitsalltag leben?
Durch einen bewussten und reflektierten Einsatz. Denn KI sollte als unterstützendes Werkzeug dienen und nicht als Ersatz für kritisches Denken. Das heißt: Inhalte gegenlesen, Kontext prüfen, Fairness wahren und Transparenz zeigen. Wer klare Prozesse etabliert, Kolleg:innen schult und Qualität vor Tempo stellt, schafft Vertrauen – intern wie extern.

KI – Zukunftsvisionen

Wie sieht ein verantwortungsvoller, kreativer Umgang mit KI in fünf Jahren aus?
Das ist eine wichtige aber zugleich schwierige Frage. Ich bin aber davon überzeugt, dass KI-Systeme in fünf Jahren feste Bestandteile von kreativen Prozessen sein werden. Und verantwortungsvolle Nutzung bedeutet dann: KI wird transparenter eingebunden, ergänzt menschliche Kreativität (statt sie zu ersetzen) und ist eingebettet in klare ethische und rechtliche Leitplanken. Kreativteams werden wissen, wann KI ein Impulsgeber ist – und wann menschliches Gespür unverzichtbar ist. Das würde ich mir zumindest wünschen.

Was ist ihre größte Sorge oder Hoffnung im Zusammenhang mit künstlicher Intelligenz?
Ich möchte meine Sorge und meine Hoffnung nennen. Zunächst: Meine größte Sorge ist, dass KI ohne ausreichende Kontrolle zu Intransparenz, Manipulation und massenhafter Desinformationführt (wie wir es gegenwärtig beim Einsatz von „Deepfakes“ ja schon erkennen können). Besonders in höchstsensiblen Bereichen, wie zum Beispiel in Politik, Bildung oder Medien, kann das wirklich gefährlich sein. Da ich aber Optimist bin, habe ich natürlich auch eine große Hoffnung, nämlich dass KI als kreativer Verstärker wirkt. KI kann wirklich schon viel, sie kann Wissen zugänglicher machen, neue Perspektiven eröffnen und Menschen befähigen, sich selbst auszudrücken. Ich denke, dass entscheidend ist, wie wir die Technologie gestalten und nutzen. Der Mensch aber darf nie auf der Strecke bleiben. Als Gesellschaft müssen wir uns schlussendlich die Frage stellen: Wollen wir auch wirklich alles umsetzen, selbst wenn es technisch möglich ist?

© FH Campus Wien, Schedl

Ass.-Prof. Dr. Marlon Possard, MSc, MA

Marlon Possard ist Assistant Professor (PostDoc/Habilitand) für die Bereiche Recht, Philosophie und Verwaltung. Er lehrt und forscht am Department für Verwaltung, Wirtschaft, Sicherheit und Politik und am Research Center Administrative Sciences (RCAS) der Hochschule für Angewandte Wissenschaften Campus Wien (University of Applied Sciences). Ebenso lehrt und forscht er am Institut für digitale Transformation und künstliche Intelligenz der Sigmund-Freund-Privatuniversität Wien und Berlin, wo er das Department für Ethik der Künstlichen Intelligenz leitet. Darüber hinaus ist er Gastforscher an der Harvard University (USA) und Autor zahlreicher Publikationen (120+). Sein neuestes Buch heißt „MORALgorithmus“ und handelt von einer menschenzentrierten KI in einer digitalisierten Welt. | Weitere Infos unter possard.at

Teilen