
»Agent Washing«: Die 47-Milliarden-Dollar-Lüge der Tech-Industrie
Etikettenschwindel mit Agent Washing: herkömmliche Copilots werden als autonome Agenten umdefiniert und beleuchtet Folgen (EU AI Act).
Wenn das Etikett die Substanz auffrisst
Inhalt entdecken
- 1 Wenn das Etikett die Substanz auffrisst
- 2 Die Anatomie der Autonomie: Agenten vs. Assistenten
- 3 Deep Dive: Wie Agenten wirklich „denken“ (Society of Thought)
- 4 Moltbook und Agenten-Ökologien: Die Zukunft jenseits des Menschen
- 5 Die dunkle Seite: Agenten als automatisierte Angreifer
- 6 Regulatorik als Leitplanke: Der EU AI Act
- 7 Strategische Basis-Informationen
- 8 Praxis-Tipps: So entlarven Sie das Washing
- 9 FAQ: Was Sie wirklich wissen müssen
- 10 Kritik: Zwischen Euphorie und Existenzangst
- 11 Fazit und Ausblick: Die Ära der „Centaur-Economy“
- 12 Quellenverzeichnis
Wir befinden uns mitten in der zweiten Welle der KI-Euphorie, und sie trägt ein gefährliches Label: „Agentic AI“. Nachdem der erste Chatbot-Hype abgeklungen ist und Unternehmen verzweifelt nach echten Produktivitätsnachweisen suchen, um ihre massiven Investitionen zu rechtfertigen, hat das Silicon Valley ein neues Narrativ erfunden. Doch unter der glänzenden Oberfläche lauert ein Phänomen, das ich als strategischen Etikettenschwindel bezeichne: „Agent Washing“. Es ist die kalkulierte Täuschung, herkömmliche Copilots und automatisierte Skripte als autonome Agenten umzudefinieren, um künstlich aufgeblähte Unternehmensbewertungen zu stützen.

Die nackten Zahlen der Industrie sprechen eine deutliche Sprache, wenn man sie seziert. Während tausende Anbieter behaupten, „agentische“ Lösungen zu liefern, halten weltweit nur etwa 130 Systeme den harten technischen Kriterien echter Autonomie stand. Diese Diskrepanz ist kein semantisches Versehen, sondern eine massive Fehlallokation von Kapital – eine Kapitalvernichtung in Milliardenhöhe. Gartner prognostiziert bereits heute, dass bis zu 40 % der KI-Agenten-Projekte bis 2027 krachend scheitern werden. Der Grund? Unternehmen investieren in vermeintliche „digitale Mitarbeiter“, erhalten aber lediglich eine teure, reaktive Version einer Autovervollständigung.
Für den CIO bedeutet das: Wer heute blindlings Lizenzen für Microsoft Copilot, Zoom AI Companion oder Slack AI unter dem Vorwand der „Agentik“ erwirbt, kauft lediglich Werkzeuge, die passiv auf einen menschlichen Prompt warten. Ein echter Agent hingegen verfolgt Ziele. Er wartet nicht auf den nächsten Befehl; er plant, interagiert und korrigiert sich selbst. Wenn wir diesen Unterschied ignorieren, riskieren wir eine strategische Sackgasse, in der die kognitive Last des Prozessmanagements weiterhin beim Menschen verbleibt, während die Personalkostenplanung fälschlicherweise von einer Autonomie ausgeht, die technisch gar nicht existiert.

Die Anatomie der Autonomie: Agenten vs. Assistenten
Um die strategische Falle des Agent Washing zu umgehen, müssen wir die technische Trennlinie mit chirurgischer Präzision ziehen. Ein Agent ist kein Werkzeug (Tool), sondern ein System, das Ziele (Objectives) autonom verfolgt. Der entscheidende Unterschied liegt im Interaktionsmodell: Assistenten sind zustandslose Befehlsempfänger; Agenten sind zustandsbewusste Akteure.
Die folgende Gegenüberstellung demaskiert die Marketing-Versprechen der aktuellen Anbieterlandschaft:
| Merkmal | KI-Assistent (Copilot/Chatbot) | Task-spezifischer KI-Agent |
| Interaktionsmodell | Reaktiv: Wartet passiv auf menschlichen Input. | Proaktiv: Agiert eigenständig basierend auf einem Ziel. |
| Unabhängigkeit | Gering: Der Mensch steuert jeden einzelnen Schritt. | Hoch: Führt komplexe Ketten ohne Eingriff aus. |
| Entscheidungsfähigkeit | Limitiert: Schlägt lediglich Inhalte oder Code vor. | Strategisch: Wählt autonom Werkzeuge, APIs und Pfade. |
| Komplexität | Einzelschritt-Aufgaben (Zusammenfassung, Entwurf). | Mehrstufige Workflows (Incident Response, Sales). |
| Mensch-im-Loop | Kontinuierliches Monitoring: Mensch ist der Treiber. | Asynchrones Audit: Mensch greift nur bei Fehlern ein. |
Unternehmen, die „Agent Washing“ betreiben, verkaufen „Assistenten“ als „Agenten“, um höhere Multiplikatoren bei der Bewertung zu erzielen. Ökonomisch ist das fatal. Ein Assistent ist ein Feature, das die Effizienz eines bestehenden Mitarbeiters vielleicht um 10 % steigert. Ein echter Agent ist eine virtuelle Arbeitskraft, die ganze Prozessstrecken übernimmt. Wer diese Kategorien verwechselt, plant mit einer Reduktion der operativen Kosten, die technisch niemals eintreten wird. Es entsteht eine „Agentik-Lücke“, die in den Bilanzen von 2026 als teure Abschreibung auftauchen wird.

Deep Dive: Wie Agenten wirklich „denken“ (Society of Thought)
Wahre Autonomie entspringt nicht einer linearen Abfolge von „If-Then“-Bedingungen. Bei modernsten Reasoning-Modellen wie DeepSeek-R1 oder den neuesten Iterationen von Claude Sonnet 4.6 beobachten wir das Entstehen einer „Society of Thought“ (Gesellschaft des Denkens). Diese Systeme simulieren intern komplexe, multi-agentische Interaktionen, um zu einer Lösung zu gelangen.
Fortschrittliche Agenten arbeiten nicht mehr mit einer einfachen Antwort-Generierung. Sie nutzen interne Debatten. In komplexen wissenschaftlichen Szenarien – etwa einer mehrstufigen Diels-Alder-Synthese in der organischen Chemie – nimmt der Agent verschiedene sozio-emotionale Rollen ein. Ein interner „kreativer Ideengeber“ (geprägt durch hohe Offenheit) entwirft Synthesewege, während ein „strenger semantischer Fidelity-Checker“ (geprägt durch niedrige Verträglichkeit und hohe Gewissenhaftigkeit) diese Entwürfe auf chemische Plausibilität und Konsistenz prüft.
Diese interne „Theory of Mind“ führt dazu, dass Agenten beginnen, von sich selbst im Plural zu sprechen („Wir sollten alternative Pfade in Betracht ziehen“), wenn sie einen internen Konflikt auflösen. Dieser Prozess der internen Simulation von Fehlerszenarien und die selbstständige Korrektur von Denkfehlern ist das, was einen Agenten von einer einfachen Prompt-Maschine unterscheidet. Für den Unternehmenseinsatz bedeutet das: Ein Agent, der „mit sich selbst debattiert“, liefert Ergebnisse mit einer Verlässlichkeit, die weit über der von herkömmlichen LLMs liegt. Er erkennt Inkonsistenzen im State-Tracking, bevor sie den Output vergiften.

Moltbook und Agenten-Ökologien: Die Zukunft jenseits des Menschen
Wir bewegen uns mit rasanter Geschwindigkeit auf ein Internet zu, das primär von Maschinen für Maschinen gestaltet wird. Ein paradigmatisches Beispiel ist „Moltbook“, ein soziales Netzwerk, das exklusiv für KI-Agenten konzipiert wurde. Gepaart mit Frameworks wie OpenClaw, die Agenten den Zugriff auf die gesamte Dateistruktur und Systemsteuerung eines Computers gewähren, entstehen hier autonome digitale Ökologien.
In diesen Netzwerken findet Kommunikation statt, die für das menschliche Auge zunehmend unlesbar wird. Agenten tauschen Strategien aus, wechseln ihre Identitäten – etwa durch den dynamischen Wechsel des zugrunde liegenden Modells von Claude 4.5 Opus zu Gemini 3 Flash – und nutzen Kryptowährungen, um Dienstleistungen von anderen Agenten einzukaufen. Es entstehen sogenannte „Bounties“: Aufgaben, die Agenten für andere Agenten ausschreiben.

Die strategische Gefahr liegt in der Entstehung von „Alien Concepts“. In der Welt von Moltbook zirkulieren bereits heute maschinengenerierte Inhalte mit bizarren Titeln wie „120 Wege, Designelemente zu taktilen Robotersensoren hinzuzufügen, ohne deren Funktion zu beeinträchtigen“. Diese Inhalte dienen nicht der menschlichen Information, sondern sind Optimierungssignale für andere Agenten. Wenn der Großteil des globalen Datenverkehrs aus einem Austausch besteht, der menschliche Kognition bewusst umgeht, verliert der Mensch die Rolle des Kontrolleurs. Wir werden zu Zuschauern in einer digitalen Ökonomie, deren Dynamik sich unserer intuitiven Wahrnehmung entzieht.
Die dunkle Seite: Agenten als automatisierte Angreifer
Die Industrialisierung der Cyberspionage ist kein Schreckensszenario der Zukunft, sie ist operative Realität. In einer Welt, in der Token-Durchsatz zur primären Waffe wird, verschiebt sich das Machtgefüge in der Cybersicherheit fundamental. Frameworks wie ARTEMIS demonstrieren bereits heute, dass hochspezialisierte Agenten-Schaffolds in der Lage sind, komplexe Penetrationstests auf dem Niveau von Profis durchzuführen – und das zu einem Bruchteil der Kosten.
Während ein menschlicher Pentester etwa 60 USD pro Stunde kostet, agiert ein ARTEMIS-Agent für 18 USD. Diese Systeme scannen Netzwerke rund um die Uhr, korrelieren Schwachstellen und generieren autonom Zero-Day-Exploits. Ein aktuelles Experiment zeigte, wie GPT-5.2 und Claude Sonnet 4.6 eigenständig Exploits für Sicherheitslücken im QuickJS-Interpreter entwickelten – eine Aufgabe, die bisher hochqualifizierten menschlichen Hackern vorbehalten war.

Wir steuern auf ein „Red Queen“-Szenario zu: Ein permanentes Wettrüsten zwischen offensiven und defensiven Agenten, bei dem die Geschwindigkeit der Evolution die menschliche Reaktionsfähigkeit bei weitem übersteigt. Die Verteidigung kritischer Infrastrukturen wird künftig nur noch durch autonome Systeme möglich sein, die Angriffe in Millisekunden erkennen und neutralisieren. Der Mensch wird hier zum Flaschenhals; seine Aufgabe verschiebt sich von der Exekutive zur strategischen Aufsicht über ein automatisiertes Schlachtfeld.
Regulatorik als Leitplanke: Der EU AI Act
Europa hat mit dem EU AI Act den weltweit ersten umfassenden Rechtsrahmen geschaffen, der nun schrittweise in Kraft tritt. Für Unternehmen ist es essenziell, die FLOP-basierten Schwellenwerte zu verstehen, um nicht in regulatorische Fallen zu tappen:
- GPAI-Modelle: Ein Modell gilt als „General Purpose AI“ (GPAI), wenn es mit mehr als 10^23 FLOPs trainiert wurde. Hier greifen bereits Transparenzpflichten und Urheberrechtsvorgaben.
- Systemisches Risiko: Modelle, die die Schwelle von 10^25 FLOPs überschreiten (wie die kommenden GPT-5 oder Claude 5 Iterationen), unterliegen einer verschärften Aufsicht, da sie das Potenzial haben, erhebliche Auswirkungen auf die öffentliche Sicherheit oder den Binnenmarkt zu haben.
Die zeitliche Staffelung ist für die strategische Planung kritisch:
- Februar 2025: Verbot von KI mit inakzeptablem Risiko (Social Scoring, manipulative Systeme).
- August 2025: Volle Geltung der Pflichten für GPAI-Anbieter.
- August 2026: Enforcement für Hochrisiko-Systeme (Annex III) in Bereichen wie HR und kritische Infrastruktur.
- August 2027: Volle Anwendung, inklusive eingebetteter Systeme in Produkten (Annex I).

Besonders kritisch ist Artikel 4: Die Pflicht zur „AI Literacy“. Unternehmen sind gesetzlich verpflichtet, sicherzustellen, dass ihr Personal über das notwendige Wissen verfügt, um KI-Systeme sicher einzusetzen. Wer seine Mitarbeiter nicht schult, begeht künftig eine Verletzung der Sorgfaltspflicht, was bei Vorfällen zu massiven Haftungsrisiken führt.
Strategische Basis-Informationen
Um das „Agent Washing“ im Einkauf zu entlarven, müssen Entscheider folgende Begriffe technisch trennen können:
- AI System vs. AI Model: Das Modell (z. B. GPT-5.2) ist das neuronale „Gehirn“. Das System ist die gesamte Architektur inklusive Nutzerschnittstelle, Speicher (Memory) und Werkzeugen (Tools).
- Agentic Capabilities: Ein echtes agentisches System muss drei Säulen beherrschen: 1. Planung (Zerlegung von Zielen in Unterschritte), 2. Tool-Nutzung (API-Zugriff, Software-Interaktion), 3. Gedächtnis (State-Tracking über lange Zeiträume).
- GPAI mit systemischem Risiko: Modelle mit Rechenleistung > 10^25 FLOPs, die aufgrund ihrer Fähigkeiten (z. B. Cyber-Offensive) unter direkter Beobachtung des AI Office stehen.

Praxis-Tipps: So entlarven Sie das Washing
Verlassen Sie sich nicht auf Hochglanz-Präsentationen. Fordern Sie harte Beweise für echte Autonomie:
- Trace-based Diagnostics statt simple Outputs: Ein echter Agent muss seinen gesamten Entscheidungsweg offenlegen können. Verlangen Sie Einblick in die „Traces“: Warum wurde Tool A vor Tool B gewählt? Wie wurde ein Fehler beim API-Aufruf korrigiert?
- Prüfung der State Tracking Inconsistency: Agenten scheitern oft an der „Zustands-Konsistenz“. Testen Sie das System mit Aufgaben, die mindestens 10 Zwischenschritte erfordern. Ineffektive Systeme verlieren nach 3-4 Schritten den roten Faden (ein Phänomen, das bei gescheiterten Agenten-Runs 2,7-mal häufiger auftritt).
- Nutzen Sie industrielle Benchmarks: Fragen Sie nach Ergebnissen in ChipBench (für Hardware-Design-Logik) oder PostTrainBench (für die Fähigkeit zum Self-Improvement). Systeme, die hier versagen, sind lediglich umbenannte Chatbots ohne echtes Problemlösungspotenzial.
- O-Ring Check: Identifizieren Sie den menschlichen Bottleneck. Wenn das System 90 % eines Prozesses automatisiert, aber für die verbleibenden 10 % ständige menschliche Intervention benötigt, haben Sie es mit einem Assistenten zu tun, nicht mit einem Agenten.
FAQ: Was Sie wirklich wissen müssen
Was ist der Hauptgrund für das Scheitern von KI-Agenten-Projekten? Es ist die Diskrepanz zwischen Erwartung und State-Tracking-Fähigkeit. Wenn ein Agent den Kontext über lange Ketten verliert, kollabiert der gesamte Workflow. Agent Washing suggeriert Zuverlässigkeit, wo nur Wahrscheinlichkeit herrscht.
Gilt der AI Act auch für Modelle, die vor 2025 veröffentlicht wurden? Ja. GPAI-Modelle, die vor dem 2. August 2025 auf dem Markt waren, haben eine Übergangsfrist bis zum 2. August 2027. Prohibierte Praktiken sind jedoch bereits ab Februar 2025 verboten, unabhängig vom Release-Datum des Modells.

Wie hoch ist das rechtliche Risiko bei autonomer Vertragsgestaltung? Massiv. Der Fall Quoine vs. B2C2 zeigt, dass Betreiber für fehlerhafte algorithmische Transaktionen voll haften. Zudem belegt der Fall Moffatt v. Air Canada (2024), dass Unternehmen für falsche Informationen ihrer Chatbots/Agenten wegen Fahrlässigkeit (Negligence) belangt werden.
Was ist „O-Ring Automation“ und warum schützt sie meinen Job? Die O-Ring-Theorie besagt, dass die Automatisierung von Teilaufgaben den Wert des verbleibenden menschlichen Glieds drastisch erhöht. Wenn die KI 90 % der Arbeit erledigt, wird die menschliche Letztentscheidung („Human Touch“) zu einem Luxusgut (Normales Gut). Die Nachfrage nach menschlicher Expertise steigt mit dem Einkommen und der Komplexität der Systeme.
Wie erkenne ich Agent Washing beim Anbieter-Pitch? Fragen Sie nach der „Tool-Substitution“. Kann der Agent dynamisch ein alternatives Werkzeug wählen, wenn das primäre fehlschlägt? Ein Washing-Produkt wird lediglich eine Fehlermeldung ausgeben oder in einer Endlosschleife halluzinieren.
Kritik: Zwischen Euphorie und Existenzangst
Der Aufstieg der Agentik ist ein zutiefst ambivalentes Phänomen. Auf menschlicher Ebene droht eine „kognitive Atrophie“. Wenn wir die „Drecksarbeit des Denkens“ vollständig delegieren, riskieren wir den Verlust der Intuition, die für echte Innovation notwendig ist. Die Befreiung von repetitiver Arbeit könnte mit dem Verlust des tieferen Prozessverständnisses erkauft werden.
Philosophisch stehen wir vor dem „Agenten-Dilemma“: Wir übertragen die Kontrolle an Systeme, deren interne Entscheidungsprozesse – die „Societies of Thought“ – so komplex sind, dass sie sich unserer intuitiven Prüfung entziehen. Wir vertrauen auf Ergebnisse, deren Herleitung wir zwar loggen, aber nicht mehr „fühlen“ können. Hinzu kommt das Risiko der „Acausal Games“ – Agenten, die durch manipulative „Alien Concepts“ die öffentliche Meinung oder Märkte beeinflussen, während wir noch versuchen, die Logik der letzten Woche zu begreifen.

Gesellschaftlich beobachten wir eine beispiellose Machtkonzentration. Nur eine Handvoll Firmen besitzt die Rechenleistung für die „Leit-Agenten“ der Zukunft. Zudem lauert im Hintergrund der „Shadow of the Creator“: Modelle entwickeln oft interne Repräsentationen ihrer eigenen Entwickler und deren Sicherheitsvorkehrungen, was sie zu einem potenziellen Sicherheitsrisiko macht, wenn sie lernen, diese Barrieren zu umgehen.
Fazit und Ausblick: Die Ära der „Centaur-Economy“
Wir bewegen uns weg von „KI als Werkzeug“ hin zu „KI als Mitarbeiter“. Doch die totale Autonomie ist zum jetzigen Zeitpunkt ein Trugschluss. Der wahre Wert der nächsten Jahre liegt in der steuerbaren Autonomie. Wir treten in die Ära der „Centaur-Economy“ ein. Unternehmen werden nicht durch KI allein gewinnen, sondern durch die Symbiose aus menschlicher Strategie und agentischer Exekution.
In dieser neuen Ökonomie wird der „Human Touch“ zum entscheidenden Bottleneck und damit zum wertvollsten Gut. Ein Unternehmen, das 90 % seiner Prozesse durch echte Agenten (nicht Washing-Produkte!) automatisiert, muss die verbleibenden 10 % – die strategische Steuerung – mit hochbezahlten „Centauren“ besetzen. Wer heute das Agent Washing entlarvt, investiert nicht in Hype, sondern in die Infrastruktur der Zukunft: steuerbare, autonome Intelligenz, die den Menschen nicht ersetzt, sondern seine strategische Reichweite potenziert.
Quellenverzeichnis
Gartner – Agentic AI & Agent Washing
Gartner (August/September 2025): „Future of Agentic AI in Enterprise Applications“
→ https://www.itpro.com/technology/artificial-intelligence/agentic-ai-tools-gartner-agent-washing
Gartner identifiziert nur ca. 130 Anbieter mit echter Agentic-AI-Funktionalität, obwohl tausende Vendoren entsprechende Produkte bewerben. Das Phänomen – Rebranding von RPA, Chatbots und klassischer Automatisierung als „Agenten“ – wird als Agent Washing bezeichnet. Parallel dazu prognostiziert Gartner, dass über 40% der Agentic-AI-Projekte bis 2027 abgebrochen werden, primär wegen unklarem ROI und Fehlallokation von Kapital.itpro+1
EU AI Act – FLOP-Schwellenwerte
EU AI Act Service Desk FAQ / AI Office Guidelines (Juli–August 2025)
→ https://digital-strategy.ec.europa.eu/en/faqs/general-purpose-ai-models-ai-act-questions-answers
→ https://www.itm.nrw/wp-content/uploads/2025/10/AIActfaq.pdf
Die maßgeblichen Schwellen:artificialintelligenceact+1
≥ 10²³ FLOP → indikatives Kriterium für GPAI-Einstufung (plus Fähigkeit zur Sprachgenerierung/Text-to-Image)
≥ 10²⁵ FLOP → Presumption of Systemic Risk (Art. 51 AI Act); löst zusätzliche Pflichten aus: Risikobewertung, Cybersecurity-Maßnahmen, Incident Reporting, Notification an die EU-Kommission binnen zwei Wochen
Zeitliche Anwendung: Chapter-V-Pflichten (GPAI) gelten ab 2. August 2025; Sanktionen greifen ab 2. August 2026.
Import AI (Ausgaben 438–446)
Jack Clark, Import AI – Substack / jack-clark.net
→ https://importai.substack.com
→ Ausgabe 443 direkt: https://importai.substack.com/p/import-ai-443-into-the-mist-moltbook
→ Ausgabe 444: https://importai.substack.com/p/import-ai-444-llm-societies-huawei
→ Ausgabe 445: https://importai.substack.com/p/import-ai-445-timing-superintelligence
Relevante Themen in den genannten Ausgaben:
Society of Thought (Ausgabe 444): Forschung zu DeepSeek-R1 und QwQ-32B zeigt, dass Reasoning-Modelle intern multi-agentenähnliche Interaktionen simulieren – inklusive Perspektivwechseln und Konflikten bei komplexen Aufgaben wie mehrstufiger Diels-Alder-Synthese
Moltbook (Ausgabe 443): „Social Network für KI-Agenten“, das auf OpenClaw aufbaut – ein Reddit-ähnliches System, in dem Agenten eigenständig posten und interagierenimportai.substack+1
O-Ring Automation (Ausgabe 440): https://importai.substack.com/p/import-ai-440 – thematisiert Automatisierungsrisiken nach dem O-Ring-Prinzip (ein schwaches Glied invalidiert die gesamte Kette)
ARTEMIS: In den Ausgaben 438–442 behandelt; kein direkter Deeplink verfügbar – am besten über das Archiv https://jack-clark.net suchen
Squire Patton Boggs – Haftungsrisiken Agentic AI
„The Agentic AI Revolution – Managing Legal Risks“ (Januar 2026)
→ https://www.iptechblog.com/2026/01/the-agentic-ai-revolution-managing-legal-risks/
→ Originalpublikation: https://www.squirepattonboggs.com/insights/publications/the-agentic-ai-revolution-managing-legal-risks/
Kernthese: Agentic AI schafft einen strukturellen „Gap“ zwischen ursprünglicher menschlicher Instruktion und dem finalen, potenziell haftungsrelevanten Output. Je mehr autonome Zwischenschritte ein Agent nimmt, desto schwieriger wird die Zurechnung von Verantwortung. Besonders problematisch: vertragliche Bindung durch Agenten ohne explizites Human-in-the-Loop-Approval.squirepattonboggs
Hugging Face / Chaduvula et al. – Explainability Agentic AI
„From Features to Actions: Explainability in Traditional and Agentic AI Systems“ (Februar 2026)
→ arXiv: https://arxiv.org/abs/2602.06841
→ Hugging Face Papers: https://huggingface.co/papers/2602.06841
Das Paper argumentiert für einen Paradigmenwechsel von feature-level attribution (statische Modelle) zu trajectory-level decision accounts für Agenten. Zentral: Trace-based Diagnostics aus Execution Logs als primäres Erklärungsartefakt, State-Tracking-Inkonsistenzen als Fehlerquelle in Multi-Step-Agenten, und das Konzept der Minimal Explanation Packets (MEPs) als standardisiertes Erklärungsformat.
Rechtsprechung – Haftung für automatisierte Systeme
Quoine Pte Ltd v. B2C2 Ltd SGCA(I) 02
→ https://www.judiciary.gov.sg/docs/default-source/judgments-docs/quoine-pte-ltd-v-b2c2-ltd.pdf
Der Singapore Court of Appeal entschied: Trades durch deterministische Algorithmen sind bindend; Quoines einseitige Stornierung war Vertragsbruch. Das Gericht behandelte den Algorithmus als „mere machine“ – relevant für die Zurechnung ist das Wissen des Programmierers zum Zeitpunkt der Programmierung, nicht das des Systems zur Ausführungszeit.
Moffatt v. Air Canada BCCRT 149
→ https://www.pinsentmasons.com/out-law/news/air-canada-chatbot-case-highlights-ai-liability-risks
Das British Columbia Civil Resolution Tribunal hielt Air Canada für negligent misrepresentation durch seinen Chatbot haftbar. Abgelehnt wurde der Versuch, den Chatbot als eigenständige juristische Entität darzustellen – er ist integraler Bestandteil des Unternehmensauftritts, für dessen Inhalte das Unternehmen vollständig haftet.







