zum Inhalt

Prompting ist tot? Wie Black-Box-KI-Workflows Haftung und Risiken im DACH-Raum beim Käufer abladen

„Prompting ist tot“; der Satz öffnet Kassen. Er verkauft Black-Box-Workflows für Tausende Franken oder Euro. Die Haftung bleibt beim Käufer.

Ein Unternehmer mit Blick auf seinen Workflow: Die Behauptung vom Ende des Promptings

Inhaltsverzeichnis


„Prompting ist tot.“ Dieser Satz geht viral und öffnet Türen wie Kassen für neue Akteure im KI-Markt: selbstständige Anbieter angeblich „fertiger“ AI-Automation-Workflows. Vier- und fünfstellige Preise für Export-Files von Plattformen wie n8n sind üblich, oft ergänzt um die vollständige Integration durch den Verkäufer, weil die Kunden die Technik nicht beherrschen.


Den Artikel hier anhören:

audio-thumbnail
ElevenLabs Prompting ist tot
0:00
/641.951859

Listen to the article:

audio-thumbnail
ElevenLabs Prompting is dead
0:00
/581.621859

Auf dem Papier wird ein standardisierter Workflow verkauft, der die Content-Erstellung – etwa für Blogtexte, Social-Media-Posts und Newsletter – automatisiert. In der Praxis bleibt der Kern unsichtbar: die als „proprietäres IP“ eingefrorene Steuerungslogik der KI-Agenten, insbesondere die System- und Rollen-Prompts, die Verhalten, Wissensstand und Grundhaltung definieren.

Proprietäre Prompts, Guardrails und der Mythos der „geheimen IP“

Info:  Proprietäres IP (Proprietary Intellectual Property) bezeichnet geistiges Eigentum (z.B. spezifische Prompts, Algorithmen, Geschäftsgeheimnisse), das sich im alleinigen Besitz eines Unternehmens befindet (oft der externe KI-Experte).

Bewusst vorenthalten und mit dem Label „proprietäres IP“ versehen werden Bias- und Guardrail-Prompts, die ethische Standards absichern, Diskriminierung, PII-Leaks oder offensichtliche Haftungsfallen verhindern sollen, sowie Chain-of-Thought- und Tool-Calling-Prompts, die den internen Denk- und Handlungsablauf steuern.

Diese mehrzeiligen Anweisungen werden als „proprietäres IP“ deklariert – geistiges Eigentum im alleinigen Besitz des Anbieters, geheim gehalten als vermeintlicher Wettbewerbsvorteil. Die Begründung klingt technisch. Schutz der Systemintegrität, der Sicherheit und des „Business-Secrets“.

Genau hier entsteht ein haftungsrechtliches Paradoxon.

Der Kunde trägt die Verantwortung, kann jedoch weder Steuerungsmechanismen noch Guardrails prüfen. Die für Audits und Compliance notwendige Transparenz fehlt. Weder lässt sich zuverlässig klären, wie ein bestimmtes KI-Ergebnis zustande kam, noch ob Verarbeitung und Ausgaben mit der DSGVO, dem BDSG beziehungsweise dem nationalen Datenschutzrecht vereinbar sind.

Spätestens im Zusammenspiel mit dem AI Act bei Hochrisiko-Anwendungen kollidiert das Black-Box-Modell mit Grundprinzipien wie Transparenz, Risikomanagement, Dokumentation und Rechenschaftspflicht.

Was war die AI Liability Directive und warum ist sie wichtig?

Mit der vorgeschlagenen KI-Haftungsrichtlinie (AI Liability Directive, COM(2022)496) wollte die EU die klassischen Haftungsregeln an die Logik von KI-Systemen anpassen. Im Kern ging es um drei Punkte:

Wer durch ein KI-System geschädigt wurde, sollte es vor Gericht leichter haben, einen Zusammenhang zwischen Pflichtverletzung und Schaden nachzuweisen, insbesondere, wenn die Technik als Black Box betrieben wird.

Gerichte sollten KI-Anbietern und -Nutzern technische Informationen, Dokumentation und Logs abverlangen können. Verweigert ein Unternehmen Einblick, hätte das zu Beweisvermutungen zu seinen Lasten führen können.

In Fällen, in denen die interne Funktionsweise eines KI-Systems für Aussenstehende nicht nachvollziehbar ist, sollte eine widerlegbare Vermutung greifen. Wenn eine Pflicht verletzt wurde und der Schaden im Zusammenhang mit dem Einsatz der KI steht, wird zunächst der Kausalzusammenhang vermutet, und das Unternehmen muss ihn entkräften.

Die Richtlinie ist gescheitert und wurde von der EU-Kommission zurückgezogen. Ihr Entwurf bleibt dennoch ein wichtiger Fingerzeig. Der Gesetzgeber akzeptiert Black-Box-KI nur eingeschränkt. Transparenz, Dokumentation und Rechenschaftspflicht werden zur Norm.

Für Unternehmen im DACH-Raum, die KI-Workflows einkaufen, ist das ein Signal:

Wer heute in intransparente Systeme investiert, könnte morgen an genau diesen Punkten in der Haftung stehen.

Warum Black-Box-Workflows mit DSGVO, AI Act und Produkthaftung kollidieren

Der inzwischen zurückgezogene Entwurf der EU-KI-Haftungsrichtlinie macht das Spannungsfeld sichtbar. Der Gesetzgeber wollte die Beweislast und den Zugriff auf Informationen drehen, weg von der geschädigten Person, hin zu den Betreibern und Anbietern von KI-Systemen. Vorgesehen waren unter anderem erleichterte Kausalitätsvermutungen sowie gerichtliche Offenlegungspflichten für technische Dokumentation und Logs.

Dass die Richtlinie politisch gescheitert ist, ändert nichts am Kernproblem, das sie adressiert hat. Wer KI als Black Box betreibt, soll künftig nicht mehr hinter der technischen Intransparenz verschwinden können.

Während die spezielle KI-Haftungsrichtlinie beerdigt wurde, verschiebt sich das Risiko in andere Normen:

  • Die DSGVO hält Verantwortliche für Rechenschaftspflicht, Datenschutz by Design und Dokumentationspflichten in der Haftung, unabhängig davon, ob ein externer KI-„Experte“ den Workflow gebaut hat.
  • Der AI Act schafft Pflichten für Anbieter und Deployer, insbesondere für Hochrisikosysteme. Risikomanagement, Logging, Transparenz und menschliche Aufsicht. Black-Box-Workflows sind damit kaum vereinbar.
  • Die neue EU-Produkthaftungsrichtlinie erweitert die Haftung für fehlerhafte Produkte ausdrücklich auf Software und KI-Systeme, inklusive digitaler Dienste, die in andere Systeme eingebettet werden.
  • Parallel wirken nationale deliktsrechtliche Normen, im DACH-Raum etwa Art. 41 OR oder § 823 BGB: Falsche Zitate, manipulierte Studienzahlen oder irreführende Inhalte können deliktische Haftung auslösen, wenn der Anbieter fahrlässig handelt und der Betreiber das System ohne ausreichende Kontrolle nutzt.

Wer wirklich haftet: Verantwortliche im DACH-Raum zwischen OR, BGB & Co.

In der Praxis werden standardisierte Workflows an Dutzende Kunden verkauft; individuelle Anpassungen an interne Richtlinien, den Risikoappetit oder Dokumentationspflichten sind selten, wenn überhaupt, dann gegen Aufpreis.

Der Käufer bleibt jedoch DSGVO-Verantwortlicher mit voller Haftung, selbst wenn der KI-Experte alles eingerichtet hat. Abmahnungen, Bussgelder und Reputationsschäden treffen den Namen im Impressum, nicht den des Freelancers oder selbstständigen KI-Experten, der die Exportdateien geliefert hat.

Besonders trügerisch ist die Annahme, Kund:innen würden es „ohnehin nicht merken“, wenn KI-Workflows als Black Box laufen. Spätestens dann, wenn falsche Fakten, fehlerhafte Gesundheits- oder Finanzinformationen, diskriminierende Formulierungen oder plötzliche Ausfälle sichtbar werden, steht nicht der externe KI-Experte im Fokus, sondern das Unternehmen, das diese Inhalte verantwortet.

Reputationsschäden entstehen nicht im Prompt, sondern im Moment, in dem sich Betroffene getäuscht, unzureichend informiert oder respektlos behandelt fühlen.

„System-Workflows“ sind nichts anderes als unsichtbar gebündeltes Prompting, teuer verkauft und mit rechtlichen Risiken für den Käufer verbunden.

Auch wenn die AI Liability Directive politisch beerdigt wurde, bleibt ihr Entwurf aufschlussreich. Juristisch betrachtet war sie der Versuch, die Haftungslogik an das reale Risiko von Black-Box-Systemen anzupassen: Weg von der Illusion, Betroffene könnten die interne Funktionsweise komplexer KI-Systeme schlicht „beweisen“, hin zu mehr Offenlegung, Dokumentation und Kausalitätsvermutungen zulasten der Betreiber.

Für Unternehmen, die heute proprietäre KI-Workflows einkaufen, bedeutet das: Der rechtliche Trend läuft nicht in Richtung „blinden Vertrauens in externe Experten“, sondern in Richtung Transparenz, Prüf- und Dokumentationsfähigkeit. Wer seine Systeme nicht erklären kann, steht in künftigen Streitfällen schlecht da, unabhängig davon, ob die Haftungsrichtlinie in Kraft getreten ist oder nicht.

Was verantwortungsvolle Unternehmen tun

Sie verlangen die Offenlegung der relevanten System-, Rollen- und Guardrail-Prompts als Teil der technischen Dokumentation, zumindest in einer Form, die interne Rechts- und Datenschutz-Teams prüfen können.

Sie regeln in Verträgen mit externen KI-Experten, wer welche Pflichten trägt (DSGVO, AI Act, Dokumentation, Logging) und wie Haftung und Regress aussehen, wenn Systeme fehlerhaft arbeiten.

Sie verlassen sich nicht auf die Behauptung „Prompting ist tot“, sondern entwickeln eigene Fähigkeiten in Prompt-Design, Policy-Gestaltung und Guardrails, um nicht dauerhaft von Black-Box-Anbietern abhängig zu sein.

Sie verlassen sich nicht auf die Behauptung „Prompting ist tot“, sondern entwickeln eigene Fähigkeiten im Prompt-Design, in der Policy-Gestaltung und in der Guardrails, um nicht dauerhaft von Black-Box-Anbietern abhängig zu sein.

Sie akzeptieren keine Workflows, die sich gegenüber Aufsichtsbehörden, Kunden oder Betroffenen nicht erklären lassen, unabhängig davon, ob das EU-Haftungspaket vollständig umgesetzt wurde oder nicht.

Prompting ist nicht tot. Es wurde lediglich in Workflows und Integrationen als Premium-Produkt mit verschleierter Haftung und dem bequemen Etikett „proprietäres IP“ eingepreist.

Führungskräfte und Entscheider, die Verantwortung ernst nehmen, öffnen die Black Box, bevor sie sie in ihr Unternehmen integrieren.

Wer Transparenz einfordert und Kontrolle behält, handelt nicht gegen den Markttrend, sondern im Sinne derjenigen Regulierung, die längst zwischen den Zeilen geschrieben steht.


Rechtsquellen (Auswahl)
– Verordnung (EU) 2016/679 (Datenschutz-Grundverordnung, DSGVO)
– Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 über künstliche Intelligenz (Artificial Intelligence Act, „AI Act“)
– Richtlinie (EU) 2024/2853 des Europäischen Parlaments und des Rates vom 13. November 2024 über die Haftung für fehlerhafte Produkte (Produkthaftungsrichtlinie). Die Richtlinie trat am 8. Dezember 2024 in Kraft. Die EU-Mitgliedstaaten haben nun bis zum 9. Dezember 2026 Zeit, die Bestimmungen in nationales Recht umzusetzen. Die neuen Regeln gelten für Produkte, die nach diesem Datum in Verkehr gebracht oder in Betrieb genommen werden. 
– Vorschlag für eine Richtlinie über KI-Haftung, COM(2022)496 final, 28.9.2022 (AI Liability Directive, zurückgezogen)
– Nationale Haftungsvorschriften, z.B. Art. 41 OR (CH), § 823 BGB (DE), §§ 1295 ff ABGB (AT)

Hintergrund & Analyse (Auswahl)
– Berichte zur Rücknahme der AI Liability Directive (u.a. IAPP, Euronews, Reuters)
– Oxford Business Law Blog, AI Liability after the AILD withdrawal: why EU law still matters (2025)
– Latham & Watkins, Neue EU-Produkthaftungsrichtlinie tritt in Kraft (2024)
– AKEuropa, AI Liability Directive – Evaluation of the Proposal (2023)


Manuela Frenzel ist unabhängige Publizistin für Technologie und Gesellschaft.

Hinweis zur Transparenz: Hinweis zur Transparenz: Die Vertonung erfolgte KI-gestützt.

Kommentare

Aktuelles