top of page

t

r

It show the logo of TROIAI without Background

i

a

i

Transparenzpflichten (Art. 50) in der Praxis umsetzen: Chatbot & Voicebot Compliance AI Act

  • Mar 25
  • 6 min read

Im vorherigen Artikel haben wir erklärt, was Artikel 50 des EU AI Act fordert und wer betroffen ist. Jetzt wird es praktisch: Wie setzt ihr die Transparenzpflichten konkret um, wenn ihr einen Chatbot im Kundenservice oder einen Voicebot im Call-Center betreibt?

In diesem Artikel zeigen wir euch fertige Code-Templates, Audio-Disclaimer-Scripts und die häufigsten Fehler, die ihr vermeiden solltet — inklusive der oft übersehenen DSGVO-Schnittstelle.

Kurz-Recap: Was fordert Artikel 50 für Chatbot & Voicebot Compliance AI Act?

Chatbots und Voicebots fallen unter zwei Absätz von Artikel 50:

Absatz 1 — KI-Interaktion mit Personen:

Nutzer müssen informiert werden, dass sie mit einem KI-System interagieren. Der Anbieter ist verantwortlich, das System so zu konzipieren, dass diese Information technisch möglich ist.

Absatz 2 — Synthetische Inhalte:

Wenn euer System Text, Audio oder andere Inhalte generiert, müssen diese maschinenlesbar markiert sein (Metadata + Watermarking). Auch hier ist der Anbieter verantwortlich.

Die Kernfrage: Seid ihr Anbieter, Betreiber, oder beides? Wenn ihr einen Chatbot mit der OpenAI API baut und selbst betreibt, seid ihr beides — und beide Pflichten treffen euch.

'Die Kernfrage: Seid ihr Anbieter, Betreiber, oder beides? Wenn ihr einen Chatbot mit der OpenAI API baut und selbst betreibt, seid ihr beides — und beide Pflichten treffen euch.

Für die vollständige Erklärung aller 4 Transparenzfälle siehe unseren Grundlagen-Artikel: "Artikel 50 EU AI Act: Transparenzpflichten einfach erklärt"

Use Case 1: Kundenservice-Chatbot

Ihr betreibt einen Chatbot auf eurer Website oder in eurer App, der Kundenanfragen beantwortet. Was müsst ihr tun?

Welche Pflichten greifen?

  • Art. 50 Abs. 1: Nutzer müssen wissen, dass sie mit einer KI sprechen

  • Art. 50 Abs. 2: Generierte Texte müssen maschinenlesbar markiert sein

  • DSGVO Art. 13/14: Informationspflichten bei Datenverarbeitung

Lösung: Der Transparenz-Disclaimer

Der Code of Practice Draft 2 fordert eine "clear and distinguishable" Information "at the latest at the time of first interaction". Das bedeutet: Bevor der Nutzer die erste Nachricht sendet.

Best Practice: Ein Banner oder Hinweis im Chat-Interface, der sofort sichtbar ist.

HTML-Template: Chatbot Transparenz-Banner

Hier ein Copy-Paste-fertiges Template als illustrative Beispiel gemäß den Anforderungen des Code of Practice:

<!-- Transparenz-Hinweis -->

<div class="ai-transparency-notice" role="status">

  <div class="ai-notice-icon" aria-hidden="true">

    <svg width="24" height="24" viewBox="0 0 24 24" focusable="false">

      <rect x="4" y="4" width="16" height="16" rx="3"

            stroke="currentColor" stroke-width="2" fill="none"/>

      <text x="12" y="16" text-anchor="middle" font-size="10" font-weight="bold">AI</text>

    </svg>

  </div>



  <div class="ai-notice-content">

    <strong>KI-gestützter Assistent</strong>

    <p>

      Sie kommunizieren mit einem KI-System. Die finale Bearbeitung Ihres

      Anliegens erfolgt durch unser Service-Team.

    </p>

  </div>

</div>


<style>

.ai-transparency-notice {

  display: flex;

  align-items: flex-start;

  gap: 12px;

  padding: 12px 16px;

  margin-bottom: 16px;



  background: #F0F9FF;

  border: 1px solid #0EA5E9;

  border-radius: 8px;



  color: #0C4A6E;

  font-size: 14px;

  line-height: 1.5;

}



.ai-notice-icon {

  flex-shrink: 0;

  color: #0C4A6E; /* dunkler für besseren Kontrast */

}



.ai-notice-content p {

  margin: 4px 0 0;

  font-size: 14px;

}

</style>

Placement-Regel

Laut Code of Practice Measure 1.2:

  • Das Banner muss vor der ersten Interaktion sichtbar sein

  • Es sollte nicht durch Scrollen versteckt werden können

  • Bei kurzen Texten (einzelne Wörter oder Phrasen) reicht ein Session-Level Hinweis im Interface

Empfehlung: Zeigt das Banner permanent im Chat-Header oder als erste Nachricht im Chatverlauf an.

Use Case 2: Voicebot im Call-Center

Ihr setzt einen KI-gestützten Voicebot ein, der eingehende Anrufe entgegennimmt oder Kunden proaktiv kontaktiert. Die Anforderungen sind hier strenger.

Welche Pflichten greifen?

  • Art. 50 Abs. 1: Anrufer müssen wissen, dass sie mit einer KI sprechen

  • Art. 50 Abs. 2: Generiertes Audio muss maschinenlesbar markiert sein

  • Art. 50 Abs. 3: Falls Emotionserkennung im Einsatz → zusätzliche Informationspflicht

Audio-Disclaimer: Die Regeln

Der Code of Practice unterscheidet nach Länge:

Audio unter 30 Sekunden:

→ Kurzer hörbarer Disclaimer am Anfang

Audio über 30 Sekunden (Gespräche):

→ Disclaimer am Anfang, in angemessenen Abständen während des Gesprächs, und am End

Real-Time Gespräche:

→ Falls ein Bildschirm vorhanden ist (z.B. Smartphone), zusätzlich visuelles Icon anzeigen

Script-Template: Voicebot Begrüßung

// Voicebot Begrüßungs-Script gem. Art. 50 EU AI Act

const DISCLAIMER_INTRO = `

Willkommen bei [Firmenname]. 

Sie sprechen mit unserem KI-gestützten Assistenten. 

Für persönliche Beratung sagen Sie jederzeit "Mitarbeiter".

Wie kann ich Ihnen helfen?

`;

const DISCLAIMER_REMINDER = `

Zur Erinnerung: Sie sprechen mit unserem KI-Assistenten.

`;

const DISCLAIMER_END = `

Vielen Dank für Ihr Gespräch mit unserem KI-Assistenten. 

Bei weiteren Fragen erreichen Sie uns unter [Telefonnummer].

`;

// Implementierung

function startCall() {

  playAudio(DISCLAIMER_INTRO);

  startConversation();

}

function onConversationMilestone(minutes) {

  // Reminder alle 3-5 Minuten bei längeren Gesprächen

  if (minutes % 4 === 0) {

    playAudio(DISCLAIMER_REMINDER);

  }

}

function endCall() {

  playAudio(DISCLAIMER_END);

}

Emotionserkennung: Zusätzliche Pflicht

Falls euer Voicebot Emotionserkennung nutzt (z.B. um frustrierte Kunden zu identifizieren), greift zusätzlich Absatz 3:

"Die Betreiber eines Emotionserkennungssystems [...] informieren die davon betroffenen natürlichen Personen über den Betrieb des Systems."

Praktisch: Erweitert euren Disclaimer:

const DISCLAIMER_WITH_EMOTION = `
Sie sprechen mit unserem KI-gestützten Assistenten. 
Zur Verbesserung unseres Service analysieren wir den Gesprächsverlauf, 
einschließlich Ihrer Stimmlage. 
Sie können dem jederzeit widersprechen, indem Sie "Stop Analyse" sagen.
`;

Die DSGVO-Schnittstelle: Doppelte Compliance

Viele vergessen: Wenn euer Chatbot oder Voicebot personenbezogene Daten verarbeitet, gelten parallel die DSGVO-Informationspflichten.

Art. 13 DSGVO: Was ihr zusätzlich mitteilen müsst

  • Name und Kontaktdaten des Verantwortlichen

  • Zwecke der Datenverarbeitung

  • Rechtsgrundlage (meist Art. 6 Abs. 1 lit. b oder f DSGVO)

  • Speicherdauer der Chatverläufe

  • Hinweis auf Betroffenenrechte

Lösung: Kombinierter Hinweis

Statt zwei separate Hinweise (AI Act + DSGVO) zu zeigen, kombiniert sie:

<!-- Kombinierter Transparenz-Hinweis: AI Act + DSGVO -->

<div class="ai-transparency-notice">

  <div class="ai-notice-header">

    <span class="ai-icon">AI</span>

    <strong>KI-gestützter Kundenservice</strong>

  </div>

  <p>

    Sie kommunizieren mit einem KI-System der [Firmenname GmbH]. 

    Ihre Nachrichten werden zur Bearbeitung Ihres Anliegens verarbeitet 

    und für 30 Tage gespeichert.

  </p>

  <p class="ai-notice-links">

    <a href="/datenschutz">Datenschutzerklärung</a> · 

    <a href="/ki-system-info">Mehr zum KI-System</a>

  </p>

</div>

Tipp: Die DSGVO erlaubt eine "gestufte" Information. Der Kurzhinweis im Chat reicht, wenn ihr auf eine vollständige Datenschutzerklärung verlinkt.

Multi-Layer Marking: Was API-Nutzer beachten müssen

Wenn ihr keine eigenen Modelle trainiert, sondern APIs nutzt (OpenAI, Anthropic, Mistral), seid ihr trotzdem Anbieter eines KI-Systems — und damit verantwortlich für die Marking-Pflichten nach Absatz 2.

Das Problem

Der Code of Practice fordert einen Multi-Layer-Ansatz:

  • Layer 1: Digital signierte Metadata (z.B. C2PA-Standard)

  • Layer 2: Imperceptible Watermarking

Die Realität: Die meisten API-Anbieter implementieren diese Techniken bereits auf Model-Level. Aber ihr müsst sicherstellen, dass:

  1. Die Markierungen nicht entfernt werden in eurer Pipeline

  2. Ihr dokumentiert, welche Marking-Techniken euer Upstream-Provider nutzt

  3. Ihr die Markierungen weitergeben könnt, wenn jemand nachfragt

Praktische Checkliste für API-Integratoren

☐ Prüfen: Nutzt euer API-Provider Watermarking/Metadata?

☐ Dokumentieren: Welche Marking-Techniken sind implementiert?

☐ Nicht entfernen: Metadata in Responses nicht strippen

☐ Vertragsprüfung: Enthält euer API-Vertrag Compliance-Zusicherungen?

☐ Detection-Zugang: Habt ihr Zugang zum Detection-Tool des Providers?

Wichtig: Laut Code of Practice Measure 4.1 könnt ihr euch auf die Marking-Lösungen eures Upstream-Providers verlassen — aber die Letztverantwortung bleibt bei euch als Anbieter des Endprodukts.

Die 3 häufigsten Fehler — und wie ihr sie vermeidet

Fehler 1: Disclaimer versteckt im Footer

Das Problem: Der Hinweis steht irgendwo am Ende der Seite, wo niemand hinscrollt.

Code of Practice sagt: "clearly perceivable at the latest at the time of first exposure [...] without the need for scrolling"

Lösung: Banner direkt im Chat-Interface, oberhalb des Eingabefelds.

Fehler 2: Einmaliger Disclaimer bei langen Gesprächen

Das Problem: Bei einem 10-minütigen Voicebot-Gespräch wird nur am Anfang informiert.

Code of Practice sagt: Für Audio über 30 Sekunden: Disclaimer "at the beginning, at appropriate intermediate phases, and at the end"

Lösung: Reminder-Logik implementieren (alle 3-5 Minuten).

Fehler 3: Keine Dokumentation für Audits

Das Problem: Ihr habt die Hinweise implementiert, aber keine Dokumentation darüber.

Code of Practice sagt (Measure 2.1): Betreiber sollen "internal documentation or equivalent internal processes" etablieren.

Lösung: Dokumentiert:

  • Wo werden Hinweise angezeigt?

  • Wie lauten die Texte?

  • Wann wurden sie zuletzt aktualisiert?

  • Wer ist verantwortlich?

TrustTroiAI Templates: Copy-Paste Compliance

Ihr müsst das Rad nicht neu erfinden. TrustTroiAI generiert personalisierte Transparenz-Template basierend auf eurem konkreten Projekt.

So funktioniert es

  1. Assessment durchführen: Beschreibt euer KI-System in 2-3 Sätzen

  2. Pflichten identifizieren: Unser 7-Agenten-System ermittelt eure Art. 50 Pflichten

  3. Template generieren: Klickt auf eine Pflicht und beantwortet 3-4 Fragen

  4. Code kopieren: Erhaltet fertiges HTML/CSS oder Audio-Script

Beispiel-Output: Recruiting-Chatbot

TextInput:

"Wir entwickeln eine KI-basierte Recruiting-Software für HR-Abteilungen. Das System analysiert CVs und führt erste Screening-Gespräche per Chatbot."

Maßgeschneiderter Vorlage-Generator für die Umsetzung.

Screenshots von TrustTroiAI maßgeschneiderte Vorlage -Generator
TrustTroiAI maßgeschneiderte Vorlage -Generator

Generiertes Template (Art. 50):

Verfügbare Template-Typen

Artikel

HTML/CSS Banner

Template-Format

Art. 50(1)

 KI-Interaktion (Chatbot & Voicebot compliance AI Act)

HTML/CSS Banner

Art. 50(2)

Synthetische Inhalte

C2PA Metadata Script (Python)

Art. 50(3)

Emotionserkennung

Informationsblatt (HTML)

Art. 50(4)

Deepfakes

Disclosure Banner (HTML)

Fazit: Transparenz ist umsetzbar

Die Transparenzpflichten nach Artikel 50 klingen komplex — sind aber mit den richtigen Templates in wenigen Stunden implementierbar.

Die wichtigsten Takeaways:

  • Chatbots: Banner vor der ersten Interaktion, kombiniert mit DSGVO-Hinweis

  • Voicebots: Audio-Disclaimer am Anfang, bei langen Gesprächen auch zwischendurch

  • API-Nutzer: Ihr seid trotzdem verantwortlich — dokumentiert eure Upstream-Marking

  • DSGVO: Vergesst die parallelen Informationspflichten nicht

  • Dokumentation: Haltet alles für Audits fest

Deadline: 2. August 2026 — noch etwa 4 Monate Zeit.

Jetzt starten: Prüft in 60 Sekunden, welche Transparenzpflichten für euer KI-Projekt gelten — kostenlos und ohne Registrierung.
→ trusttroiai.com/scope-check
Für Entwickler: Nach dem Assessment könnt ihr direkt personalisierte Templates generieren — Copy-Paste-fertig für eure Codebase.
QUELLENVERZEICHNIS

[1] Code of Practice on Marking and Labelling of AI-Generated Content — Second Draft

European Commission, AI Office, 5. März 2026

Section 2, Measure 1.1 (Design Requirements) und Measure 1.2 (Placement Requirements)

[2] Verordnung (EU) 2024/1689 — Verordnung über künstliche Intelligenz (AI Act)

Artikel 50 Absatz 1-5

[3] Verordnung (EU) 2016/679 — Datenschutz-Grundverordnung (DSGVO)

Artikel 13, 14 (Informationspflichten)

[4] Bird & Bird Analysis: "Taking the EU AI Act to Practice"

Zur Identifikation von API-Integratoren als "blindest spot"

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page