🛰 Frontier Tech Report — Agentic AI, frontier Modelle und Quanten |’15 Mai 2026

In den letzten 14 Tagen dominiert Cluster A klar: Agentic AI, frontier Modelle und Quantenhardware machen gleichzeitig große Sprünge, während Cybersecurity und Regulierung sichtbar hinterherlaufen.

Executive Digest

  • Frontier-Modelle werden zu de‑facto Cyberwaffen — Anthropic Mythos, GPT‑5.5 und neue Analysen zeigen, dass generische Frontier-Modelle autonom Schwachstellen finden und Exploit-Ketten bauen können; Regulatoren und Sicherheitsanbieter reagieren mit Eile auf diese neue „AI‑als‑Angreifer“-Realität.
  • Google „Remy“ und Metas „Hatch“ markieren den Übergang zu 24/7-Agenten — Beide Konzerne testen intern agentische Personal Agents, die proaktiv über das gesamte Ökosystem hinweg handeln und damit klassische „Chatbots“ ablösen.
  • Anthropics „Dreaming“ macht Managed Agents selbstverbessernd — Das neue Feature lässt Claude-Agenten ihre eigenen Sitzungen auswerten, Playbooks extrahieren und damit ohne Modell-Update messbar bessere Ergebnisse liefern.
  • US-Regierung bereitet Pre‑Release‑Tests für Frontier-Modelle vor — Das Commerce‑Department (CAISI) verhandelt direkte Testzugänge, während das Weiße Haus unter Trump eine obligatorische Modell‑Vetting‑Instanz diskutiert, ausgelöst u.a. durch Mythos’ Hacking-Fähigkeiten.
  • Quantenhardware erreicht neue Nutzbarkeits‑Schwellen — OriginQ bringt einen 180‑Qubit‑Supraleiterrechner global in die Cloud, AQT erreicht mit LYNX einen Quantum Volume von 32 768 und rückt RZ‑taugliche Systeme in ein 19″-Rack.

Top 5 Dossiers

1) Frontier-Modelle als Cyberwaffen‑Faktor

  • Cluster: A
  • AS: 83 | Impact: 90 | Credibility: 85 | Novelty: 80 | Practicality: 75 | Spannung: 85 | Polarisierung: 80
  • Was ist neu:
    Anthropic’s nicht frei verfügbares Claude‑Mythos‑Preview‑Modell zeigte im Test, dass es tausende hochkritische Schwachstellen in kurzer Zeit identifizieren kann, was Pentagon‑Offizielle zugleich alarmiert und als Chance für Code‑Härtung sehen. Die UK AI Safety Institute‑Bewertung von OpenAI GPT‑5.5 bescheinigt dem Modell einen 71,4 %‑Score in einer Expert‑Cyber‑Suite und die Fähigkeit, eine 32‑stufige simulierte Unternehmensintrusion in mehreren Durchläufen vollständig zu durchlaufen. Parallel dokumentieren Palo Alto Networks (Defender’s Guide, Unit 42) und Rubrik, dass Frontier‑Modelle ohne zusätzliche „Hacking‑Feintraining“ autonome Zero‑Day‑Suche, Exploit‑Chaining und Umgehung von Kontrollen leisten.
  • Warum relevant:
    Die Linie zwischen allgemeinen KI‑Releases und spezialisierten Offensivwerkzeugen verwischt: jedes neue Frontier‑Release ist faktisch auch ein Cyber‑Capability‑Release, egal ob das vom Lab intendiert ist oder nicht. Für Unternehmen verschiebt sich das Zeitfenster zwischen Disclosure, Exploit und Angriff auf Minuten, was klassische „Patch‑wenn‑wir‑dazu‑kommen“-Prozesse obsolet macht und automatisierte, AI‑unterstützte Verteidigung zur Mindestanforderung erhebt.
  • Polarisierungssignal:
    Hohe Polarisierung, weil die gleiche Fähigkeit, Code sicherer zu machen, sofort auch Angreifern zugutekommt und Debatten darüber anheizt, ob besonders „cyberfähige“ Modelle verzögert, eingeschränkt oder gar nicht veröffentlicht werden sollten.
  • Key Claims:
    • Mythos fand in Tests tausende schwerwiegende Schwachstellen und demonstrierte, wie Frontier‑Modelle systematisch Software- und Infrastrukturfehler kartieren können.
    • GPT‑5.5 erreichte im AISI‑Cyber‑Benchmark 71,4 % und bestand eine komplexe 32‑Schritt‑Intrusion‑Simulation mehrfach vollständig, was zeigt, dass hohe Cyberkompetenz jetzt Nebenprodukt genereller Modellverbesserung ist.
    • Palo Alto und Unit 42 berichten, dass Frontier‑Modelle in internen Tests das Äquivalent eines Jahres manueller Pen‑Tests in unter drei Wochen leisten können und autonome Agenten‑Angriffe realistisch erscheinen.
  • Unsicherheiten (Confidence: hoch/medium/niedrig):
    • Hoch: Genereller Trend zu steigender Offensivkapazität von Frontier‑Modellen, durch mehrere unabhängige Anbieterberichte gestützt.
    • Medium: Konkrete Zahlen (z.B. „ein Jahr Pen‑Tests in drei Wochen“) sind laborspezifisch und nicht öffentlich repliziert; externe Peer‑Review fehlt.
The Autonomous Escalation 2 1

2) Google „Remy“ & Meta „Hatch“: 24/7‑AI‑Agents

  • Cluster: A
  • AS: 84 | Impact: 85 | Credibility: 80 | Novelty: 85 | Practicality: 80 | Spannung: 85 | Polarisierung: 70
  • Was ist neu:
    Leaks und Analysen beschreiben Googles internen Agenten „Remy“ als Gemini‑basierten 24/7‑Personal Agent, der in einer internen Gemini‑App-Version getestet wird und über Google‑Dienste hinweg proaktiv Aufgaben ausführen, Routinen überwachen, Dokumente versenden und Käufe tätigen können soll. Meta hat parallel „Hatch“ angekündigt, einen auf dem neuen multimodalen Muse‑Spark‑Modell basierenden agentischen Assistenten, der komplexe Multi‑Step‑Tasks über Instagram, Facebook, Wearables und andere Meta‑Hardware hinweg autonom ausführen soll.
  • Warum relevant:
    Für Nutzer verschiebt sich der Schwerpunkt von „Antworten bekommen“ zu „Dinge erledigt bekommen“, d.h. Workflows in Mail, Kalender, DMS, Commerce und Home‑Automation werden zunehmend von autonomen Agenten statt manuellen Klicks orchestriert. Für Anbieter von SaaS‑Tools, E‑Commerce‑Frontends oder Marketing‑Stacks bedeutet das: Die primären „User“ eurer Interfaces könnten mittelfristig AI‑Agents sein, nicht Menschen; Integrations‑APIs und Policy‑Kontrollen werden zentraler als UI.
  • Polarisierungssignal:
    Polarisierung entsteht durch Privacy‑ und Kontrollfragen: Ein Agent, der kontinuierlich persönliche Kontexte scannt und eigenständig in Mail, Social und Commerce agiert, spitzt Debatten um Überwachung, Dark Patterns und „Over‑Automation“ zu.
  • Key Claims:
    • Interne Beschreibungen von Remy charakterisieren ihn als „Your 24/7 personal agent“ mit tiefer Integration in Gmail, Docs, Calendar, Android und Dritt‑Services und dem Ziel, Aufgaben ohne explizite Prompt‑Interaktion zu erledigen.
    • Muse Spark wurde als nativ multimodales Reasoning‑Modell mit Multi‑Agent‑Orchestrierung und geplanten Consumer‑Features (z.B. agentisches Shopping auf Instagram bis Ende 2026) eingeführt.
    • Branchenkommentare sprechen von einem Übergang, in dem AI‑Agenten zu den dominanten „Nutzern“ von Software werden könnten, was Software‑Architektur, Auth‑Modelle und Monitoring grundlegend verändert.
  • Unsicherheiten (Confidence: medium):
    • Launch‑Timing, Funktionsumfang und Guardrails von Remy und Hatch sind nicht offiziell final; bisherige Informationen stammen überwiegend aus Leaks, Sekundärquellen und begrenzten Ankündigungen.

3) Anthropic „Dreaming“: Selbstverbessernde Managed Agents

  • Cluster: A
  • AS: 82 | Impact: 80 | Credibility: 85 | Novelty: 85 | Practicality: 80 | Spannung: 80 | Polarisierung: 60
  • Was ist neu:
    Anthropic hat auf der „Code with Claude“-Konferenz ein Feature namens „Dreaming“ für Claude Managed Agents vorgestellt: Ein zwischen Sessions laufender Prozess, der vergangene Agentenläufe und Memory‑Stores analysiert, Muster extrahiert und daraus strukturierte Notizen und Playbooks für künftige Runs generiert. Das System verändert nicht die Modellgewichte, sondern schreibt menschenlesbare Lernnotizen, die geprüft oder automatisch übernommen werden können; erste Pilotkunden wie Legal‑AI‑Firma Harvey berichten von bis zu sechsfach höheren Task‑Completion‑Raten.
  • Warum relevant:
    „Dreaming“ adressiert ein Kernproblem praktischer LLM‑Agents: dass sie in langen, fragmentierten Workflows denselben Kontext immer wieder neu aufbauen und dieselben Fehler wiederholen. Für Unternehmen heißt das: Langlaufende Prozesse (z.B. CI/CD‑Reviews, Support‑Playbooks, Vertragsanalyse) können von Agents betrieben werden, die ihre eigenen Best‑Practices iterativ verfeinern, ohne dass jedes Pattern manuell als „Skill“ modelliert werden muss.
  • Polarisierungssignal:
    Kontroverse entsteht darum, wie viel „autonome Prozessoptimierung“ akzeptabel ist und wie transparent Playbook‑Änderungen für Audit, Compliance und Incident‑Postmortems sein müssen.
  • Key Claims:
    • „Dreaming“ läuft asynchron, wertet vergangene Sessions aus, identifiziert wiederkehrende Fehler und convergierende Workflows und destilliert daraus wiederverwendbare Skills/Playbooks.
    • Harvey sah in einem Pilotprojekt eine grob sechsfache Steigerung der Task‑Completion‑Rate nach Aktivierung von Dreaming, ein frühes Indiz für praktische Nutzensteigerung.
    • Anthropic positioniert Dreaming zusammen mit Multi‑Agent‑Orchestrierung und rubric‑basierten „Outcome“-Gradern als geschlossenes Continuous‑Improvement‑Loop für Enterprise‑Workflows.
  • Unsicherheiten (Confidence: medium):
    • Die publizierten Effizienzgewinne stammen aus Einzelfall‑Piloten; unabhängige Benchmarks und Robustheitsdaten (Fehlerakkumulation, „Spec Drift“) liegen noch nicht breit vor.
The Autonomous Escalation 3 1

4) Staatliche Pre‑Release‑Tests für Frontier‑Modelle

  • Cluster: A
  • AS: 80 | Impact: 85 | Credibility: 80 | Novelty: 75 | Practicality: 70 | Spannung: 80 | Polarisierung: 85
  • Was ist neu:
    Das US‑Commerce‑Department (NIST/CAISI) hat mit Anbietern wie Google DeepMind, Microsoft und xAI Vereinbarungen geschlossen, die der Behörde Zugang zu Modellen vor der öffentlichen Verfügbarkeit für Sicherheitstests einräumen. Parallel erwägt die Trump‑Administration laut Medienberichten ein Executive Order, das ein formales Vetting‑System für neue AI‑Modelle etabliert, ausgelöst auch durch Befunde, dass Anthropic’s Mythos besonders effektiv Netzwerkschwachstellen identifizieren kann.
  • Warum relevant:
    Diese Schritte signalisieren einen Kurswechsel von „self‑regulation“ hin zu staatlich koordiniertem Pre‑Release‑Testing von Frontier‑Modellen – mit Implikationen für Time‑to‑Market, Compliance‑Kosten und potenziell internationale Fragmentierung von Freigabestandards. Für Unternehmen erhöht sich gleichzeitig der Druck, eigene AI‑Deployments (insb. agentische Systeme) gegen neue regulatorische Vorgaben (Audits, Logging, Capability‑Evaluations) zu härten.
  • Polarisierungssignal:
    Hohe Polarisierung, weil Befürworter auf Sicherheitsgewinne verweisen, während Kritiker vor Innovationsbremse, politisierter Modellzulassung und möglichen Datenzugriffen des Staates auf proprietäre Systeme warnen.
  • Key Claims:
    • CAISI soll laut Commerce‑Mitteilung Pre‑Deployment‑Evaluations durchführen und gezielt Frontier‑Capabilities (inkl. Cyber‑Risiken) untersuchen.
    • Medienberichte beschreiben Pläne für eine Task‑Force aus Tech‑Executives und Regierungsvertretern, die Verfahren für die Modell‑Freigabe definieren könnte; das Weiße Haus prüft Optionen von freiwilligen Programmen bis hin zu obligatorischen Reviews.
    • Mythos‑Funde zu tausenden „high‑severity“‑Schwachstellen dienen als politischer Katalysator, weil sie zeigen, was vergleichbare Modelle potenziell leisten.
  • Unsicherheiten (Confidence: medium):
    • Viele Details (Konkreter Geltungsbereich, Schwellenwerte, Sanktionsmechanismen) sind noch im Fluss; ein Teil der Informationen stammt aus anonymen Quellen und Entwürfen, keine finalen Regulierungsdokumente.

5) Quantenhardware‑Sprünge: OriginQ Wukong‑180 & AQT LYNX

  • Cluster: A
  • AS: 78 | Impact: 80 | Credibility: 85 | Novelty: 75 | Practicality: 70 | Spannung: 75 | Polarisierung: 40
  • Was ist neu:
    Origin Quantum hat mit dem Wukong‑180 seine vierte Generation eines supraleitenden Quantenrechners in Betrieb genommen: ein Ein‑Chip‑System mit 180 Rechen‑Qubits, 251 Kopplungs‑Qubits und berichteten Ein‑Qubit‑Gate‑Fidelities von 99,9 % sowie 99 % für Zwei‑Qubit‑Gates und Readout, über eine Cloud‑Plattform weltweit zugänglich. AQT stellte die LYNX‑Serie vor, einen 19‑Zoll‑Rack‑Quantencomputer (Trapped Ions), der einen Quantum Volume von 32 768 (2^15) erreicht und damit laut eigenen Angaben das zweithöchste QV weltweit für einen universellen Quantenrechner hält.
  • Warum relevant:
    Beide Systeme adressieren explizit industrielle Nutzbarkeit: Wukong‑180 wird u.a. für KI‑Modell‑Feintuning und interdisziplinäre Forschung angeboten, während LYNX auf Rechenzentrums‑Integration und Cloud‑Zugriff zielt und Anwendungen in Chemie, Logistik und Optimierung adressiert. Für AI‑/Cloud‑Infrastruktur‑Teams wird die Frage realer „Utility‑Scale“‑Quantum‑Workloads konkreter, insbesondere im Zusammenspiel mit klassischen HPC‑ und AI‑Systemen (z.B. für Simulation, Material‑ und Drug‑Discovery).
  • Key Claims:
    • Wukong‑180 repräsentiert den Übergang chinesischer supraleitender Systeme in die „100+ Qubit‑Engineering‑Phase“ mit voller Stack‑Kontrolle (Chips, Steuerung, OS, Cloud) und verbessertem Fehlerverhalten bei parallelen Gates.
    • Die Wukong‑180‑Spezifikationen führen u.a. 40 µs mittlere T1‑ und 20 µs T2‑Echo‑Zeiten sowie 99 %‑Readout‑Fidelity auf, in einer proprietären „3+3“‑Hardware‑Software‑Architektur.
    • AQT’s LYNX besteht QV‑Tests mit 305 Zufallscircuits auf 15‑Qubit‑Registern, erreicht dabei eine Heavy‑Output‑Probability von 0,678 (über dem 2/3‑Schwellenwert) mit 99,5 % Konfidenz und eine Ausführungsgeschwindigkeit von ca. 2,9 QV‑Circuits/Sekunde.
  • Unsicherheiten (Confidence: medium):
    • Wie gut sich diese Laborkennzahlen auf reale, verrauschte Produktions‑Workloads übertragen lassen, ist offen; unabhängige Benchmark‑Vergleiche mit IBM/Google‑Systemen existieren überwiegend in Form von Sekundäranalysen.
The Autonomous Escalation 4 1

ToWatch (AS 55–74)

TRIBE v2: Digitale Zwillingsmodelle des Gehirns — AS: 72 (Impact: 80 | Credibility: 85 | Novelty: 90 | Practicality: 55 | Spannung: 80 | Polarisierung: 70)
Prognose: Metas TRIBE‑v2‑Modell, das aus Multi‑Modal‑Stimuli (Video, Audio, Text) hochauflösende fMRI‑Aktivitäten mit 70‑fach höherer räumlicher Auflösung als Vorgänger vorhersagt, könnte Brain‑Computer‑Interfaces, Neuro‑Diagnostik und Cognitive‑AI‑Forschung stark beschleunigen. Kurzfristig ist der Einsatz eher in Forschung und High‑End‑Medizin zu erwarten; mittelfristig könnten „in‑silico Neuroscience“‑Ansätze Standards bei Neuro‑Drug‑Discovery und Human‑in‑the‑Loop‑AI werden, mit hohen Datenschutz‑ und Ethikimplikationen.

AI‑Supply‑Chain: Shai‑Hulud‑Wurm & GitHub‑Release — AS: 71 (Impact: 75 | Credibility: 75 | Novelty: 70 | Practicality: 70 | Spannung: 80 | Polarisierung: 60)
Prognose: Die Open‑Source‑Veröffentlichung des Shai‑Hulud‑Wurms, der specifically AI‑Supply‑Chains angreift, zeigt, dass AI‑Tooling‑Ökosysteme (Model Hubs, Inference‑APIs, Agent‑Frameworks) selbst zum Ziel und Vektor werden. In den nächsten Monaten ist mit verstärkten Angriffen auf AI‑Pipelines (z.B. kontaminierte Modelle, trojanisierte Agent‑Skills) zu rechnen; Vendor‑Due‑Diligence und SBOM‑ähnliche Transparenz für AI‑Artefakte werden relevanter.

Kaskadierende Supply‑Chain‑Breaches (Canvas, cPanel, DAEMON Tools) — AS: 70 (Impact: 70 | Credibility: 80 | Novelty: 60 | Practicality: 80 | Spannung: 75 | Polarisierung: 55)
Prognose: Die Kombination aus Canvas‑LMS‑Megabreach, aktiv ausgenutzter cPanel‑Auth‑Bypass‑Lücke und trojanisierten DAEMON‑Tools‑Installern markiert eine Phase, in der Bildungs‑ und Hosting‑Infrastrukturen sowie weit verbreitete Utilities gleichzeitig getroffen werden. Erwartbar ist ein weiteres Hochlaufen von Supply‑Chain‑Angriffen, bei denen AI sowohl für Erkennung als auch Exploit‑Generierung genutzt wird, was Hoster, MSPs und EdTech‑SaaS‑Provider zu systematischem Hardening zwingen wird.

AI‑gestützte Angriffe auf KMU — AS: 62 (Impact: 65 | Credibility: 70 | Novelty: 55 | Practicality: 80 | Spannung: 65 | Polarisierung: 50)
Prognose: Analysen zeigen steigenden Einsatz von AI‑Tools für personalisierte Phishing‑Kampagnen, Deepfake‑Voice‑CEO‑Fraud, automatisiertes Vulnerability‑Scanning und polymorphe Malware – mit besonderem Fokus auf kleine und mittlere Unternehmen ohne dediziertes SOC. In den nächsten 6–12 Monaten dürfte „AI‑native“ Security (AI‑gestützte EDR/XDR, automatische Playbooks, Identity‑Hardening) von „nice to have“ zur Überlebensfrage im KMU‑Segment werden.


Mein Blogbeitrag zum neuen Service

Quanten‑Kommerzialisierung: NVision, FrostByte & ParityQC — AS: 65 (Impact: 65 | Credibility: 75 | Novelty: 65 | Practicality: 60 | Spannung: 60 | Polarisierung: 30)
Prognose: NVision’s 55 M‑$‑Series‑B für photonenbasierte „Photonic Integrated Quantum Circuits“, FrostBytes Seed‑Finanzierung für Cryo‑CMOS‑Kontrolle und ParityQCs Fortschritt bei measurement‑based QC deuten auf eine Reifung der tieferen Hardware‑Stack‑Komponenten hin. In den kommenden Jahren könnte dies die Brücke von experimentellen Setups hin zu skalierbaren, energieeffizienteren QPUs und Controller‑Hardware schlagen – relevant für Rechenzentren mit AI/Quantum‑Kopplung.

The Autonomous Escalation 5 1

Blog Backlog (AS ≥ 75)

1) „Wenn jedes neue AI‑Modell auch ein Cyber‑Werkzeug ist“
Hook: Frontier‑Modelle wie GPT‑5.5 und Mythos zeigen, dass jedes große Release heute gleichzeitig ein Sicherheits‑Risiko und ein Verteidigungs‑Werkzeug ist – ob die Labs das wollen oder nicht.
Outline:

2) „Remy vs. Hatch: Der Kampf um den AI‑Agent, der dein Leben steuert“
Hook: Google und Meta rüsten zu einem Wettrennen um den 24/7‑Agenten, der Mails, Termine, Einkäufe und Social‑Feeds autonom steuert – mit offenen Fragen zu Kontrolle und Abhängigkeit.
Outline:

3) „Dreaming: Wie sich AI‑Agents im Schlaf selbst optimieren“
Hook: Anthropic führt mit „Dreaming“ eine Art REM‑Schlaf für Claude‑Agents ein – mit massiven Effizienzgewinnen und neuen Fragen zur Nachvollziehbarkeit.
Outline:

4) „TRIBE v2: Digitale Zwillingsgehirne und was sie für AI bedeuten“
Hook: Meta hat mit TRIBE v2 ein Modell veröffentlicht, das Gehirnaktivität aus Video, Audio und Sprache vorhersagt – und die Grenze zwischen AI‑Forschung und Neurotech verwischt.
Outline:

5) „Quantencomputer im Rack: Wie nah ist ‚Utility‑Scale‘ wirklich?“
Hook: OriginQ und AQT präsentieren Systeme mit 180‑Qubit‑Chips und QV 32 768 im 19″-Rack – klingt nach Produkt, nicht mehr Labor.
Outline:

6) „AI‑Supply‑Chains: Wenn Modelle, Agents und Tools kompromittiert werden“
Hook: Der Shai‑Hulud‑Wurm und aktuelle Supply‑Chain‑Angriffe zeigen, dass künftig nicht nur eure Software‑Dependencies, sondern auch eure AI‑Artefakte zum Einfallstor werden.
Outline:

7) „Agentic AI vs. klassische Software: Wer ist bald der eigentliche Nutzer deiner App?“
Hook: Wenn Agents wie Remy, Hatch und Claude‑Agents eure SaaS‑UIs bedienen, müsst ihr Software nicht mehr nur für Menschen, sondern für Maschinen designen.
Outline:


Watchlist (terminierte Events)

  • Code with Claude – London · 19.05.2026 · Relevanz: Direktes Update zu Managed Agents, Dreaming‑Roadmap und Claude‑Tooling; relevant für alle, die agentische Workflows produktiv nutzen.
  • Code with Claude – Tokio · 10.06.2026 · Relevanz: Erweiterte internationale Perspektive, potenziell neue Use‑Cases und Partnerintegrationen im asiatisch‑pazifischen Raum.
  • Q2B Tokyo 2026 · 04.–05.06.2026 · Relevanz: Fokus auf industrielle Quantum‑Use‑Cases und hybride Quantum‑AI‑Workloads; wichtig zur Einordnung von Systemen wie Wukong‑180 und LYNX im globalen Kontext.
  • Quantum.Tech World 2026 (Boston) · 25.–26.06.2026 · Relevanz: Konferenz zur Kommerzialisierung von Quantum‑Tech und Integration mit HPC/AI, mit starkem Industriefokus.
  • AI for Good Global Summit 2026 · Termin laut ITU‑Summit‑Seite 2026 (Genf) · Relevanz: Politik‑, Standardisierungs‑ und Governance‑Signale rund um Frontier‑Modelle und ihre gesellschaftliche Nutzung.
The Autonomous Escalation 6 1

Sources

Cluster A – Advanced Computing & Security

Weitere Cluster‑B/C‑Items mit AS < 70 wurden identifiziert, aber gemäß Vorgabe nicht in den Output aufgenommen.

Das musst du sehen...
Tom Scharlock
Tom Scharlock

Vom Piercing-Shop zur digitalen Erzählkunst

Ich schreibe in Code, denke in Geschichten
aus Web, Apps, UX, IT, KI als
Autor zwischen Technik und Fiktion.

___
Tom Scharlock ist Buchautor & Autor bei TECHWELTEN auf PWA.ist.
Am liebsten schreibt er dystere Zukunftsvisionen, aber immer FAKTISCH korrekt. Seinen Sie gewarnt!
Amazon Autor Profil  Pls Like ♥  

Artikel: 235