Frontier Tech Report – 20. März bis 3. April 2026

Executive Digest

Frontier Tech 0
  • Q-Day rückt näher: Google zieht PQC-Deadline auf 2029 vor, neue Forschung senkt Ressourcen zum Brechen von RSA & Krypto um Größenordnungen — Post-Quanten-Kryptografie wandert von Langfrist-Thema zu akuter Migrationsaufgabe für alle, die heute noch auf RSA/ECC setzen.
  • Enterprise-Agenten überschreiten Kipppunkt: 72% der Global 2000 nutzen AI-Agenten jenseits von Piloten — Agentic AI wird von „Spielwiese“ zu Produktionsinfrastruktur, mit Multi-Agent-Orchestrierung als Standardarchitektur.
  • LLM-Frontier verengt sich: GPT‑5.4 zieht mit Gemini 3.1 Pro gleich, während Open-Weight-Modelle aufschließen — Entscheidungen verschieben sich von „bestes Modell“ zu Workload-spezifischer Optimierung von Qualität, Kosten und Ökosystem.
  • März‑CVE-Welle und Patch Tuesday zeigen neue Rolle von AI in Offense und Defense — Kritische Schwachstellen in Microsoft-Stacks, Netzwerk-OS und SD-WAN unterstreichen, wie sehr Unternehmenssicherheit von konsequentem Patch- und Exposure-Management abhängt.
  • Synthetic Reality & Regulierung: Deepfake-Betrug professionalisiert sich, während EU AI Act und globale AI-Gesetze in die Durchsetzungsphase gehen — Vertrauensinfrastrukturen (Signaturen, Wasserzeichen, KI-Detektion) und Governance werden zu Pflicht-Investitionen, nicht mehr zu „Nice-to-have“.

Top 5 Dossiers

1) Q-Day rückt näher: Quantum-Breakthroughs und Googles PQC-Timeline

  • Cluster: A (Quantencomputing, Post-Quantum-Krypto)
  • AS: 86 | Impact: 95 | Credibility: 90 | Novelty: 85 | Practicality: 75 | Spannung: 85 | Polarisierung: 70
Frontier Tech 1

Was ist neu:

In den letzten drei Monaten haben drei Arbeiten die geschätzten Quantenressourcen zum Brechen heutiger Standardkryptografie (RSA, ECC) von initial rund 20 Millionen physischen Qubits auf Größenordnungen unter eine Million, teilweise sogar unter 100.000 Qubits reduziert. Die jüngste Google-Quantum-AI-Arbeit (März 2026) zeigt, dass elliptische-Kurven-Kryptografie, die Bitcoin, Ethereum und die meisten digitalen Signaturen schützt, mit weniger als 500.000 physischen Qubits in Minuten statt Tagen kompromittiert werden könnte. Parallel dazu setzt Google offiziell eine interne Zielmarke: vollständige Migration auf Post-Quantum-Kryptografie (PQC) bis 2029 und warnt, dass „kryptografisch relevante“ Quantencomputer nicht mehr dauerhaft ein Jahrzehnt entfernt sind.

Warum relevant:

Die Kombination aus reduzierten Qubit-Anforderungen und einem aggressiven PQC-Timeline-Signal von einem Hyperscaler verschiebt Quantum Risk von abstrakter Zukunftsgefahr zu konkreter Roadmap-Frage in SOC, CISO-Office und Enterprise-Architecture. Gleichzeitig verschärft sich das „Harvest now, decrypt later“-Risiko: Angreifer sammeln heute verschlüsselte Daten, die in wenigen Jahren mit Quantenmitteln entschlüsselt werden könnten, was insbesondere für staatliche Kommunikation, Gesundheits- und IP-Daten kritisch ist. Regulatorisch greifen NIST-Standards (ML‑KEM, ML‑DSA, SLH‑DSA) sowie erste Migrationsguidelines, während EU- und US-Behörden PQC zunehmend in Beschaffungs- und Compliance-Rahmen (CISA, FedRAMP etc.) verankern.

Polarisierungssignal (≥ 60):


Mein Blogbeitrag zum neuen Service

Die Einschätzung, wann ein „kryptografisch relevanter“ Quantencomputer realistisch ist, bleibt stark umstritten und reicht von „Ende 2020er“ bis „nach 2040“, was Spannungen zwischen sicherheitsgetriebener Frühmigration und kostengetriebenem Abwarten erzeugt. Zudem bestehen Interessenkonflikte zwischen Anbietern, die PQC-Produkte verkaufen, und Unternehmen, die Migrationskosten und Performanceeinbußen tragen müssen.

Key Claims:

  • Neue Ressourcenabschätzungen reduzieren den Qubit-Bedarf zum Brechen von RSA‑2048 und ECDSA von rund 20 Millionen auf unter eine Million, im Extremfall <100.000 physische Qubits.
  • Für gängige elliptische-Kurven-Verfahren reichen unter bestimmten Fehlermodellen <500.000 physische Qubits, mit Laufzeiten im Minutenbereich.
  • Google setzt eine Konzernzielmarke, alle Produkte bis 2029 auf PQC-Migration auszurichten, und hat interne Schlüssel­austausch­mechanismen bereits auf ML‑KEM umgestellt.
  • NIST hat ML‑KEM und ML‑DSA 2024 als erste PQC-Standards finalisiert; US-Behörden und Cloud-Anbieter beginnen, diese in großem Stil auszurollen.

Unsicherheiten:

Die modellierten Qubit-Anforderungen hängen stark von Annahmen zu Fehlerraten, Fehlerkorrekturcode und Architektur (z. B. supraleitend vs. photonic) ab; reale Systeme könnten höhere Ressourcen benötigen als die theoretischen Untergrenzen. Es ist unklar, wie schnell die Industrie von Proof-of-Concept-PQC-Deployments zu flächendeckenden Migrationen übergeht, insbesondere in Legacy-Umgebungen (OT, Embedded, Langzeit-Archive), in denen Kryptowechsel typischerweise Jahrzehnte dauert.


2) Synthetic Reality & AI-Governance: Deepfakes treffen auf EU AI Act

  • Cluster: A (Synthetic Reality, AI-Governance, CyberSec)
  • AS: 82 | Impact: 85 | Credibility: 80 | Novelty: 75 | Practicality: 70 | Spannung: 90 | Polarisierung: 80

Was ist neu:

Aktuelle Analysen zeichnen 2026 als Jahr, in dem Deepfakes von asynchronen Medien (voraufgezeichnete Videos) zu Live-Injection-Angriffen in Video-Calls und KYC-Prozessen migrieren; Fraud-as-a-Service-Plattformen verkaufen vortrainierte „Executive Voice Skins“ und Phishing-Skripte für wenige Dollar. Parallel wächst die Sorge vor „Synthetic Diplomacy“: Deepfake-Videos politischer Führungspersonen könnten in hochautomatisierten Märkten kurzfristig zig Milliarden an Börsenwert auslösen, bevor der Fake widerlegt ist. Regulatorisch treten EU AI Act und flankierende Gesetze in eine Phase, in der Verbote (z. B. Social Scoring, manipulative Subliminal-Techniken) und Transparenzpflichten für Deepfakes sowie GPAI-Modelle konkret durchgesetzt werden.

Frontier Tech 2

Warum relevant:

Für Unternehmen wandelt sich Synthetic Reality von PR-Problem zu systemischer Geschäftsrisiko-Kategorie: Board-Fraud, Market-Manipulation und Reputationsschäden lassen sich nicht mehr mit Awareness-Mails und klassischem MFA eindämmen. Gleichzeitig bauen Regulierer mit dem EU AI Act, nationalen AI-Gesetzen und Codes of Practice einen Rahmen, der Wasserzeichen, Erkennbarkeit von KI-Inhalten und risikobasiertes Governance-Modell verpflichtend macht. Wer Content, Identitäten oder automatisierte Entscheidungen anbietet, muss mittelfristig nachweisen können, dass Synthese, Kennzeichnung und Risikomanagement regelkonform erfolgen.

Polarisierungssignal (≥ 60):

Die Balance zwischen Schutz vor Deepfakes und Schutz von Meinungsfreiheit / Anonymität ist hoch umstritten; z. B. wird diskutiert, ob verpflichtende Wasserzeichen und Modellkennzeichnung auch für Open-Source-Modelle gelten sollten und wie weit Plattformen in die Inhaltsmoderation eingreifen dürfen. Gleichzeitig warnen Bürgerrechtsorganisationen, dass biometrische Identitätsprüfungen als Anti-Deepfake-Maßnahme neue Überwachungsinfrastrukturen schaffen könnten.

Frontier Tech 3

Key Claims:

  • Deepfake-Betrug verschiebt sich zu Live-Injection-Angriffen mit synthetischen Identitäten, die über längere Zeiträume Vertrauen aufbauen, bevor Geld- oder Datenabflüsse initiiert werden.
  • Forrester erwartet ein Wachstum der Ausgaben für Deepfake-Detektion von rund 40% im Jahr 2026, während C2PA-Wasserzeichen und Liveness-Checks zum Standard in Hochrisiko-Use-Cases werden.
  • Der EU AI Act klassifiziert bestimmte manipulative Systeme und Social Scoring als „unacceptable risk“ und verbietet sie; für Deepfakes gelten Transparenzpflichten und Kennzeichnungsvorgaben.
  • General Purpose AI (GPAI)-Regeln und ein EU-AI-Office bauen eine Aufsichtsschicht für Modellanbieter auf, inklusive Dokumentations-, Daten- und Safety-Anforderungen entlang der Lieferkette.

Unsicherheiten:

Die technische Wirksamkeit von Wasserzeichen und Detektionsalgorithmen ist begrenzt, da generative Modelle Wasserzeichen entfernen oder imitieren können; es ist unklar, ob ein robustes, herstellerübergreifendes Signatursystem durchsetzbar ist. Auf regulatorischer Ebene bleiben Timing (z. B. mögliche Verschiebung von High-Risk-Deadlines auf 2027) und globale Harmonisierung (EU vs. US-Staaten, UK, APAC) in Bewegung.


3) Agentic AI als neue Enterprise-Infrastruktur

  • Cluster: A (Agentic AI, Enterprise IT, CyberSec)
  • AS: 80 | Impact: 90 | Credibility: 80 | Novelty: 80 | Practicality: 85 | Spannung: 75 | Polarisierung: 65

Was ist neu:

Neue Marktdaten aus März 2026 zeigen, dass 72% der Global 2000 heute AI-Agenten jenseits von Piloteinsätzen produktiv betreiben; Multi-Agent-Orchestrierung ist dabei das dominante Muster, etwa für End-to-End-Workflows in Softwareentwicklung, Finanzen und Customer Service. Analysten prognostizieren ein Wachstum des Agentic-AI-Markts von 9,14 Mrd. Dollar Anfang 2026 auf über 139 Mrd. Dollar bis 2034 (CAGR ~40,5%), während Gartner erwartet, dass 40% der Enterprise-Applikationen bis Ende 2026 spezialisierte Agenten integrieren. Technologisch konsolidiert sich ein Stack aus LLMs, Agenten-Frameworks wie LangGraph, CrewAI, AutoGen, Semantic Kernel und Orchestrierungsschichten (MCP, A2A), die deterministische Kontrolle, Tool-Use, Memory und Observability liefern.

Frontier Tech 4

Warum relevant:

Der Enterprise-Fokus verschiebt sich von „Chatbots an der Oberfläche“ hin zu „Agenten als Betriebssystemschicht“, die Workflows über Systeme hinweg orchestrieren. Damit steigen sowohl Effizienzpotenziale (30–50% schnellere Finanzprozesse, drastisch verkürzte Entwicklungszyklen) als auch Governance-Risiken (unklare Verantwortlichkeit, Shadow-AI, Sicherheitsauswirkungen von Agenten mit Änderungsrechten in produktiven Systemen). Die Daten signalisieren aber auch Ernüchterung: Bis zu 40% der agentischen Projekte drohen bis 2027 zu scheitern, vor allem wegen Governance, Kosten und fehlender klarer Business-Cases.

Polarisierungssignal (≥ 60):

Es existiert ein starker Spannungsbogen zwischen Tech-Optimisten, die Agenten als „neue Belegschaftsschicht“ sehen, und Stakeholdern, die Jobverluste, Fehlerkaskaden und Kontrollverlust fürchten; dieser Konflikt verschärft Diskussionen um Mitbestimmung, Skill-Profile und Haftung. Zudem stehen sich zwei Governance-Philosophien gegenüber: strikte Guardrails mit geringer Autonomie vs. hochautonome Agenten mit nachgelagerter Kontrolle.

Key Claims:

  • 72% der Global 2000 betreiben AI-Agenten produktiv, Multi-Agent-Orchestrierung ist Standard für komplexe Workflows (DevOps, Finance, Customer Service).
  • Der Agentic-AI-Markt soll bis 2034 auf >139 Mrd. Dollar wachsen (CAGR ~40,5%); 40% der Enterprise-Applikationen werden bis Ende 2026 Task-spezifische Agenten integrieren.
  • Führende Frameworks (CrewAI, LangGraph, AutoGen, LlamaIndex, DSPy, Semantic Kernel etc.) bündeln Reasoning, Tool-Orchestrierung, Memory, Planning und Observability in produktionstauglichen Stacks.
  • Studien zeigen, dass 70–80% der Agentic-Initiativen bisher nicht in den Enterprise-Scale kommen; Gartner erwartet, dass über 40% der Projekte bis 2027 abgebrochen werden.

Unsicherheiten:

Die Zahlen zu Kostenersparnis und Produktivitätsgewinnen stammen überwiegend aus Anbieter- und Early-Adopter-Reports, die häufig keine unabhängige Validierung oder Langzeitdaten enthalten. Zudem ist unklar, wie Agenten in sicherheitskritischen Domänen (z. B. OT, Gesundheitswesen) reguliert werden und welche Zertifizierungsregime sich etablieren (z. B. als „High-Risk“-Systeme unter dem EU AI Act).

Frontier Tech 5

4) LLM-Frontier: GPT‑5.4 vs. Gemini 3.1 Pro und der neue Preis-Leistungs-Korridor

  • Cluster: A (KI-Modelle, Benchmarks, Infrastruktur)
  • AS: 78 | Impact: 80 | Credibility: 85 | Novelty: 75 | Practicality: 80 | Spannung: 70 | Polarisierung: 55

Was ist neu:

Der aktuelle Benchmark-Überblick für März 2026 zeigt GPT‑5.4 praktisch gleichauf mit Gemini 3.1 Pro Preview an der Spitze eines Intelligence-Index (Differenz 0,01 Punkte), während neun neue Textmodelle – sieben davon open-weight – die Mid-Range neu sortieren. Parallel dazu ranken praxisorientierte Benchmarks Claude Opus 4.6, GPT‑5.4, Gemini 3.1 Pro und DeepSeek V3.2 je nach Use-Case (Coding, Terminal-Workflows, Preis) an der Spitze. Die Kosten pro Million Tokens sind gegenüber 2025 um 40–80% gefallen, mit Spannweite von ~0,28/0,42 Dollar (DeepSeek V3.2, Input/Output) bis zu 5/25 Dollar (Claude Opus 4.6), während Frontier-Modelle bei den meisten Coding-Benchmarks nur noch 1–2 Punkte auseinanderliegen.

Warum relevant:

Die Entscheidung „einfach das klügste Modell“ zu wählen, verliert an Bedeutung; stattdessen dominieren Workload- und Kostenoptimierung, Ökosystem (Tools, Plugins, Agents), Latenz und regulatorische Anforderungen (z. B. Datenresidenz, Souveränität). Der enge Qualitätsabstand erhöht den Druck auf Modellanbieter, sich über Spezialisierungen (z. B. Terminal-Arbeiten, Multimodalität, Langkontext) und TCO zu differenzieren, während Open-Weight-Modelle erstmals „good enough“ für viele Produktionsszenarien sind. Für Nutzer bedeutet das, dass Multi-Model-Strategien (z. B. günstiges Modell für Routine, Frontier-Modell für Edge-Cases) zum Standard werden.

Key Claims:

  • GPT‑5.4 erreicht 57,17 Punkte auf einem Intelligence-Index und liegt damit innerhalb von 0,01 Punkten an Gemini 3.1 Pro Preview.
  • In praxisnahen Coding-Benchmarks liegen Frontier-Modelle innerhalb von 1–2 Punkten beieinander; Claude Opus 4.6 führt bei komplexem Multi-File-Reasoning, GPT‑5.4 bei Terminal-Workflows, Gemini 3.1 Pro bei Preis-Leistungs-Verhältnis.
  • Die Tokenpreise erstrecken sich von ~0,28/0,42 Dollar (DeepSeek V3.2) bis 5/25 Dollar (Claude Opus 4.6) pro Million Tokens, mit deutlichen Y/Y-Preisreduktionen.
  • Open-Weight-Modelle wie Kimi K2.5, Qwen 3.5, GPT-oss-20b erreichen in unabhängigen Benchmarks 80–98% der Performance von Frontier-Modellen auf ausgewählten Tasks.

Unsicherheiten:

Benchmarks basieren oft auf proprietären Task-Sets; Generalisierbarkeit auf kundenspezifische Domänen (z. B. Legacy-Code, Spezialdokumente) ist begrenzt. Zudem werden Betreiber-Attribute wie Zuverlässigkeit der API, Fair-Use-Politiken, Datenschutzpraktiken und Langfristverfügbarkeit in vielen Rankings kaum abgebildet.

Frontier Tech 6

5) März 2026: CVE-Welle, Patch Tuesday und AI-gestützte Vulnerability Discovery

  • Cluster: A (Cybersecurity, AI-Augmented Offense/Defense)
  • AS: 74 | Impact: 80 | Credibility: 85 | Novelty: 70 | Practicality: 90 | Spannung: 70 | Polarisierung: 50

Was ist neu:

Der März 2026 bringt eine dichte Folge kritischer CVEs: Microsoft patched 83–84 Schwachstellen, davon acht kritisch, inklusive zweier öffentlich bekannte Zero-Days (CVE‑2026‑26127 in .NET, CVE‑2026‑21262 in SQL Server), während weitere kritische Bugs u. a. Windows-Kernel, Office und Azure-spezifische Komponenten betreffen. Parallel dazu veröffentlichen Security-Anbieter Round-ups mit Fokus auf CVEs wie CVE‑2026‑3055 (Out-of-Bounds-Read mit potentieller RCE-Kette), kritische Juniper-Junos- und Cisco-SD-WAN-Lücken (Auth-Bypass, Remote-Exploitation) sowie weitere Schwachstellen mit hoher Ausnutzungswahrscheinlichkeit. Bemerkenswert: Microsoft hebt hervor, dass eine 9,8‑CVSS-Lücke im Microsoft Devices Pricing Program von einer AI-gestützten autonomen Vulnerability-Discovery-Plattform gefunden wurde – ein Indikator dafür, dass AI-Akteure zunehmend im Bug-Hunting aktiv sind.

Warum relevant:

Die gleichzeitige Häufung kritischer Schwachstellen in Kern-Infrastruktur (SQL Server, Windows Kernel), Netzwerkbetriebssystemen (Junos, SD-WAN) und Office-Stacks zeigt, wie breit die Angriffsfläche der meisten Unternehmen ist; erfolgreiche Angriffe können lateral über Identity- und Netzwerkebenen eskalieren. Die Nutzung von AI für autonome Schwachstellensuche auf Vendor-Seite erhöht den Druck auf Angreifer, ihrerseits AI für Exploit-Entwicklung und Scanning einzusetzen, was die Taktfrequenz der Offense-Defense-Dynamik erhöht. Praktisch bedeutet das: Patch-Management, Exploit-Monitoring und Exposure-Management (inkl. Attack Surface Management) sind 2026 noch weniger optional als zuvor.

Key Claims:

  • Microsofts Patch Tuesday im März 2026 adressiert 83–84 CVEs, darunter zwei öffentlich bekannte Zero-Days und acht kritische Schwachstellen mit Privilege Escalation und Remote Code Execution.
  • Kritische CVEs in Juniper Junos (z. B. CVE‑2026‑21902) und Cisco SD-WAN (CVE‑2026‑20127) erlauben Authentifizierungs-Bypässe und potenziell vollständige Netzwerkübernahme.
  • CVE‑2026‑3055 illustriert die anhaltende Relevanz von Memory-Sicherheitsproblemen wie Out-of-Bounds-Reads, die häufig Teil komplexer Exploit-Chains sind.
  • Eine AI-gestützte Plattform wurde als Entdecker einer 9,8‑CVSS-RCE-Schwachstelle im Microsoft Devices Pricing Program genannt, was AI-basierte Vulnerability Discovery als neue Normalität andeutet.

Unsicherheiten:

Zum Zeitpunkt der Berichte ist unklar, welche dieser Schwachstellen bereits in freier Wildbahn ausgenutzt werden; Einschätzungen zur Ausnutzungswahrscheinlichkeit basieren auf Heuristiken, nicht auf flächendeckenden Telemetriedaten. Die langfristige Rolle autonomer AI-Systeme in der Schwachstellensuche, insbesondere in Bezug auf Responsible Disclosure und Angriffswaffen, ist regulatorisch und ethisch ungeklärt.

Frontier Tech 7

ToWatch (AS 55–74)

AI-Agent-Governance-Frameworks in Großunternehmen — AS: 72 (Impact: 80 | Credibility: 75 | Novelty: 65 | Practicality: 80 | Spannung: 65 | Polarisierung: 55)

Prognose: Agentic-Governance-Ansätze wie das „Digital Contractor“-Modell und 3‑Tier-Guardrail-Frameworks dürften sich als De-facto-Standards etablieren, da Unternehmen versuchen, autonome Agenten mit Identity-, Policy- und Audit-Layern zu kontrollieren, ohne deren Effizienzgewinne zu zerstören.

EU AI Act High-Risk-Deadlines & Digital Omnibus — AS: 70 (Impact: 80 | Credibility: 80 | Novelty: 60 | Practicality: 70 | Spannung: 70 | Polarisierung: 65)

Prognose: Die Diskussion um eine Verschiebung der High-Risk-Verpflichtungen von August 2026 auf 2027 wird in den kommenden Monaten Klarheit bringen; Softwareanbieter und Enterprise-Kunden sollten von einem „No-Regret“-Pfad ausgehen und August 2026 als operative Deadline behandeln.

AI–Quantum-Convergence für Optimierung & Materials Discovery — AS: 68 (Impact: 80 | Credibility: 75 | Novelty: 70 | Practicality: 55 | Spannung: 70 | Polarisierung: 50)

Prognose: Hybride AI–Quantum-Workflows könnten bis Ende der 2020er-Jahre in Logistics-, Pharma- und Materials-Use-Cases erste kommerzielle Vorteile liefern; 2026 fungiert als Übergangsjahr mit stärker reproduzierbaren, aber noch begrenzt skalierbaren Demonstratoren.

AI-gestützte Deepfake-Angriffe auf Finanzmärkte („Synthetic Diplomacy“) — AS: 65 (Impact: 75 | Credibility: 65 | Novelty: 70 | Practicality: 60 | Spannung: 85 | Polarisierung: 70)

Prognose: Bisher vor allem als Szenario diskutiert, könnten in den nächsten 12–24 Monaten tatsächliche Marktmanipulationsfälle mit Deepfake-Videos und algorithmischem Trading auftreten; Börsenbetreiber und Regulatoren werden gezwungen sein, neue Circuit-Breaker- und Fact-Checking-Mechanismen einzuführen.

AI-unterstützte automatische Schwachstellensuche und Exploit-Generierung — AS: 60 (Impact: 70 | Credibility: 70 | Novelty: 65 | Practicality: 65 | Spannung: 65 | Polarisierung: 55)

Prognose: Was heute noch primär als defensives Werkzeug erscheint (autonome Vulnerability Discovery im Vendor-Kontext), wird voraussichtlich in Offense-Toolchains diffundieren; Policy-Diskussionen um Exportkontrollen, Dual-Use-Restriktionen und Responsible Disclosure dürften sich zuspitzen.

Frontier Tech 8

Blog Backlog (AS ≥ 75)

1. Q-Day kommt früher als gedacht? Wie neue Quantenforschung unsere Kryptopläne zerschießt

2. Agenten überall: Warum 72% der Großunternehmen jetzt AI-Agenten in Produktion haben – und 40% trotzdem scheitern werden

3. Synthetic Reality: Wie Deepfake-Betrug und „Synthetic Diplomacy“ Finanzmärkte und Unternehmen angreifbar machen

4. LLM-Auswahl 2026: Warum „das beste Modell“ nicht mehr die richtige Frage ist

5. AI im Vulnerability-Management: Wenn autonome Systeme Schwachstellen schneller finden als Angreifer

6. EU AI Act in der Praxis: Was 2026 für Entwickler, Produktteams und CISOs wirklich ändert

7. Frameworks für Agenten: CrewAI, LangGraph & Co. – welches Tooling für welche Agentic-Strategie?


Watchlist (terminierte Events & Deadlines)

Event Datum Relevanz
Inkrafttreten der Kennzeichnungs- und Transparenzpflichten für verbotene und begrenzt riskante KI unter EU AI Act (inkl. Deepfake-Kennzeichnung) Laufend seit 2025, Verschärfung bis August 2026 Setzt Rahmen für Synthetic-Reality-Kennzeichnung, wirkt direkt auf Plattformen, Medien und Content-Produzenten.
(Geplante) Durchsetzung der High-Risk-Verpflichtungen nach EU AI Act (Annex III) Ursprünglich 02.08.2026, mögliche Verschiebung auf 2027 in Diskussion Kritische Deadline für Anbieter von HR-, Finance-, Healthcare- und Law-Enforcement-Systemen mit KI-Komponenten.
Veröffentlichung des zweiten EU-Code-of-Practice-Entwurfs zur Kennzeichnung von AI-generiertem Content 03.03.2026 Präzisiert, wie Plattformen und Anbieter Deepfakes und generierte Inhalte markieren sollen.
Google interne Zielmarke für vollständige PQC-Migration 2029 Starker Marktsignalgeber für PQC-Umstellung in der gesamten Cloud- und Enterprise-Landschaft.
NYU „Deepfake Security Threats 2026“ Konferenz 2026 (genaues Datum laut Veranstalteragenda) Bringt Rechtswissenschaft, Technik und Praxis zu regulatorischen, forensischen und Governance-Fragen von Deepfakes zusammen.

Sources

Cluster A – Advanced Computing & Security

Cluster A – AI-Regulierung & Governance (Sub-Thema)

Das musst du sehen...
Tom Scharlock
Tom Scharlock

PWA.ist ein PWA App Store, ein Blog, eine Video Wissensseite und die Agenturpräsenz der PRGRSV ::Agentur Arnstadt. Ganz neu sind die PWA & WEB Tools Meine Biografie

Artikel: 216