
Moin AInauten,
Willkommen zur neuen Ausgabe deines Lieblingsnewsletters.
Was für eine Woche! Wir wollten einmal nicht über Anthropic schreiben, aber klappt nicht. Hier sind gerade zwei Leaks aufeinander getroffen, aus denen auch wir Normalos etwas lernen können.
Und nebenbei zeigen uns Schach-Großmeister gerade, warum die besten AI-Nutzer die sind, die AI manchmal bewusst ignorieren.
Hier die Themen im Detail:
🇪🇺 Europa 2026: Endlich eigene AI-Champions?
🤖 Anthropics Doppel-Leak: Was wir daraus lernen können
♟️ Was Schach-Großmeister über AI wissen, das die meisten übersehen
Los geht's!
Diese Ausgabe wird dir präsentiert von:
🇪🇺 Europa 2026: Endlich eigene AI-Champions?
Wer schon länger dabei ist, kennt unsere jährliche Verbundenheit mit der Rise of AI Konferenz in Berlin. Eine der wichtigsten AI-Konferenzen in Deutschland.
300 handverlesene Entscheider, keine Messe-Stands, keine Vendor-Pitches. Stattdessen echte Gespräche zwischen C-Level, Investoren und Politik.
Die nächste Rise of AI 2026 öffnet am 06.05.26 in Berlin wieder die Pforten. Fokus ist auch immer der Blick auf Europa und AI. Den wir gerade in diesen Zeiten für essenziell wichtig halten. Grund genug einmal für uns nachzudenken, was wir so die letzten Jahre auf der Konferenz erlebt haben und wie sich Europa entwickelt.

Rise of AI
2024 haben wir live von dort geschrieben: "Europas größtes Problem für die AI-Zukunft." Die Stimmung? Ernüchternd.
2025 war das Motto "Good News from Europe?" mit Fragezeichen. Europa hatte Forschung, Talent, aber keine echten Player.
Und 2026? Dieses Mal sehen die Zahlen zumindest ein wenig anders aus.
Mistral aus Frankreich macht über eine Milliarde Euro Umsatz. Über 100 Enterprise-Kunden. Darunter Regierungen aus Frankreich, Deutschland und Griechenland.
ElevenLabs, unsere "Lieblings-Sprach-AI" hat gerade $500 Millionen eingesammelt bei einer Bewertung von $11 Milliarden.
Helsing aus Deutschland baut Defense-AI und ist mit €12 Milliarden Europas wertvollstes Defense-Tech Startup.
Deutschland hat bereits investiert: Es stehen €5,5 Milliarden aus dem Konjunkturpaket für „New Technologies Made in Germany“ bereit, zusätzlich zu den bestehenden Mitteln der „AI made in Germany“-Strategie. (Was uns irgendwie absurd wenig vorkommt … vor allem wenn man liest, dass Google alleine €5,5 Milliarden in den Ausbau seiner AI- und Cloud-Infrastruktur in Deutschland investiert.)
Heißt das, Europa bekommt die Kurve? Natürlich nicht von jetzt auf gleich 😄 ... Die USA und China sind immer noch Lichtjahre voraus was Foundation Models angeht. Aber Europa baut endlich Unternehmen, die ernstzunehmen sind. Und die Richtung stimmt.
Um einen Eindruck von AI in Europa und der politischen Ausrichtung zu bekommen, ist die Rise of AI eines der wichtigsten Events für uns. Das Event ist bewusst kleiner gehalten und man hat die Möglichkeit, mit vielen Speakern und Experten auch tatsächlich zu sprechen. Die Besucher sind in der Regel auch Experten in ihren Feldern.
Daher sind auch wir am 6. Mai wieder in Berlin bei der Rise of AI und berichten live.
Das Timing ist auch deshalb spannend, weil am 2. August die volle AI-Act-Enforcement-Deadline greift. 90 Tage nach der Konferenz. Und bisher haben nur 8 von 27 EU-Staaten ihre Enforcement-Strukturen aufgebaut. Wir werden sehen...
Wenn du ebenfalls Lust hast, dabei zu sein, bekommst du über unser AINAUTEN-Kontigent 20% Rabatt auf die Tickets.
Und wenn du es nicht live schaffst, kannst du dich hier für den kostenlosen Stream registrieren (lohnt sich auf jeden Fall!):
🤖 Anthropics Doppel-Leak: Was wir daraus lernen können
Wie eingangs schon gesagt: wir hoffen, du bist nicht genervt, weil wir aktuell etwas mehr über Anthropic schreiben. Aber hier passiert so viel, dass wir es auch diese Ausgabe wieder tun müssen. Wir versuchen es kurz zu halten und ein paar Praxis-Ideen daraus abzuleiten.
Eigentlich dominiert Anthropic ja die News, weil sie gefühlt alle 5 Tage ein neues Major-Feature veröffentlichen. Seit kurzem kann Claude Code zum Beispiel auch deinen kompletten Computer fernsteuern!
Wir haben uns immer gefragt, wie das verhältnismäßig kleine Team so krassen Output erzeugt. Zwei wahrscheinlich ungewollte Leaks diese Woche geben hier einige Antworten.
Leak 1: Claude Mythos – das geheime Supermodell
Am 26. März hat ein Konfigurationsfehler rund 3.000 unveröffentlichte Dokumente öffentlich zugänglich gemacht. Darunter: ein Draft-Blogpost über ein neues Modell namens Claude Mythos.
Was wir wissen: Mythos ist ein komplett neues Tier ÜBER Opus = das mächtigste Modell, das Anthropic je gebaut gezüchtet hat.
Es hat "dramatically higher scores" in Coding, Reasoning und Cybersecurity. Intern nutzt Anthropic schon Varianten davon.
Und genau das erklärt vielleicht, warum Anthropic gerade so unfassbar schnell neue Features raushaut.
Computer Use, Dispatch, Channels, Auto Mode... fast jede Woche was Neues.
Unsere These: Das Team hat intern Zugang zu Modellen, die deutlich stärker sind als alles was wir nutzen.
Für alle Security-Nerds können wir auch folgenden Vortrag empfehlen. Darin zeigt ein Security Researcher, wie die AI-Modelle (in ihrer Black-Hat Version ohne Zügel) in der Lage sind, Sicherheitslücken in vielen Apps und Systemen zu identifizieren - und sie auch auszunutzen…
Achtung: Uns ist seit dem Vortrag etwas schlecht. Wir glauben, das uns hier schwierige Zeiten bevorstehen…
Leak 2: 512.000 Zeilen Claude Code Source Code
Fünf Tage später, am 31. März: Jemand vergisst eine .npmignore Datei.
Ergebnis: Der gesamte Source Code von Claude Code landet als npm-Package im Internet. 512.000 Zeilen TypeScript. Komplett offen.
Es wird spekuliert, ob es gewollt war oder nicht. Aber Claude Code ist quasi Anthropics wichtigstes Produkt und mit ein Grund, warum das Unternehmen in 2026 wohl schon knapp 19 Milliarden USD Umsatz gemacht hat!
Das Ganze ist natürlich super technisch. Aber was da drin steckt, ist ein Blueprint dafür, wie man AI-Agenten baut. Es ist die Bedienungsanleitung für Claude Code mit allen wichtigen Konzepten.
Darin steckt sehr viel intellektuelles Kapital von Anthropic und es ist jetzt für alle verfügbar. Zwar nicht Open Source - aber du kannst sicher sein, dass diese Ideen sehr bald auch in anderen Applikationen zu finden sein werden
Und einiges davon können auch wir Normals direkt für unsere eigene AI-Arbeit mitnehmen.

Was wir Normalos daraus lernen können
Memory als Index, nicht als Datenspeicher.
Anthropic nutzt ein dreischichtiges Memory-System. Die wichtigste Schicht: eine MEMORY.md Datei. Ein schlanker Index mit Pointern, die auf andere Dateien verweisen. Nicht alles an einem Ort reinpacken, sondern Verweise nutzen. "Projektbriefing liegt in Datei X, Kundenfeedback in Y."
Übertragung in die Praxis: Erstell dir (oder lass erstellen) für jedes Projekt ein kurzes Index-Dokument und nutz es als System-Prompt oder Custom Instructions. Also nicht dein ganzes Wissen reinpacken, sondern nur die Struktur mit Verweisen.
AI-Output & Memory ist ein Hint, nicht die Wahrheit.
Ebenfalls aus dem Leak erkennbar: Anthropic sagt intern, dass das Memory ein "Hint" ist. Das Modell MUSS Fakten gegen die echte Codebase, gegen die Wissensdokumente verifizieren, bevor es handelt.
Wenn das für Claude Code gilt, gilt es erst recht für uns in der Praxis - auf zwei Ebenen:
Baue deine System Prompts, Memories und Global Instructions so auf, dass sie immer einen entsprechenden Hinweis enthalten, wie bspw.: “Prüfe deine Memories immer ob sie auch der Realität entsprechen.”
Jeder Chatbot baut mittlerweile Memories auf. Anthropic selbst sagt dem Modell, es solle nicht nur auf sie vertrauen. Daher sollten wir es auch nicht, wenn wir die Antworten lesen!
Wenn du frustriert bist, mach einen Reset.
Fun-Fact: Im Leak steckt eine Liste, um Schimpfwörter in deinen Prompts zu erkennen. Was Anthropic damit macht ist unklar - deshalb sind wir pauschal immer nett zu jeder AI 😁.
Vielleicht geht es darum, dass Anthropic herausfinden will, was der Grund für den Unmut war und wie das Modell entsprechend verbessert werden kann? Aber wir wissen es nicht und der Punkt ist: Wenn du fluchst, funktioniert der aktuelle Ansatz offensichtlich nicht.
Übertragung in die Praxis: Wenn du so unglücklich mit den Ergebnissen bist, dass du fluchen musst, dann starte einen frischen Task/Chat. Chatbots fahren sich manchmal fest bei langen Unterhaltungen.
Du kannst dem System einfach sagen, dass es eine Zusammenfassung mit den wichtigsten Details sowie einen Prompt für eine neue Unterhaltung für dich erstellen soll
Letzter Fun-Fact:
Im Code stecken 44 fertige Features hinter sogenannten Flags. Das sind versteckte Einstellungen, mit denen man etwas ein- oder ausschalten kann. Das erklärt auch, warum Anthropic so viel neues launcht: Es sind schon Unmengen an neuen coolen Features fertig. Wir freuen uns darauf!
♟️ Was Schach-Großmeister über AI wissen, das die meisten übersehen
Kurzer Themenwechsel. Aber einer, der es in sich hat.
Schachspieler bereiten sich seit Jahren mit AI vor. Ihre ersten 20+ Züge? Komplett AI-optimiert, auswendig gelernt.
Problem: Wenn beide Spieler die gleiche AI nutzen, neutralisieren sie sich gegenseitig.
Ergebnis: Die Unentschieden-Rate auf Elite-Level ist explodiert.
Und jetzt der Plot Twist: Die Champions haben angefangen, absichtlich "schlechte" Züge zu spielen. Sie ignorieren die AI-Empfehlung bewusst. Warum? Weil es den Gegner in unbekanntes Terrain zieht. Wo er selbst denken muss. Statt AI-Züge abzurufen.

Das ist nicht nur im Schach so, sondern ist auch unsere Realität.
Wenn alle den gleichen ChatGPT-Prompt nutzen, klingt alles gleich. Wenn alle die gleiche AI-Strategie fahren, neutralisieren sich alle. Der Wettbewerbsvorteil? Bewusst abweichen.
Die besten Unternehmer machen Züge, die ein Algorithmus nie empfehlen würde. Job kündigen. Firma pivoten. Gegen den Trend wetten. Das sind "suboptimale" Züge, die Karrieren machen.
Als kleines Gedanken-Experiment zum Schluss: Nimm den AI-Output als Startpunkt. Aber frag dich dann bewusst: "Was würde AI hier NICHT vorschlagen?" Da liegt oft das Gold.
So, wir sind durch für heute. Danke fürs Lesen, Feedback ist wie immer gerne willkommen.
Bis am Weekend mit einem Recap und den wichtigsten News!
Reto & Fabian von den AInauten
Die AInauten Journey: So können wir dir helfen!
⭐ AI EXPLORER: Der schnelle Einstieg in die AI-Welt, perfekt zum Reinschnuppern, wenn du noch keine Erfahrung hast. Mehr erfahren »
⭐⭐⭐ AI POWER USER: Werde zum AI-Profi in 30 Tagen. ChatGPT Masterclass, Prompting Pro Bootcamp, 50+ Deep-Dives mit wöchentlichen Updates. Spare 10+ Stunden pro Woche. Kein Abo. Mehr erfahren »
⭐⭐⭐⭐⭐ AI AUTOMATION EXPERT: Die Königsklasse. Alle unsere Trainings aus AI EXPLORER und AI POWER USER! Plus Community mit Support. Baue Systeme, die 24/7 für dich arbeiten - mit Zapier, Make, n8n Trainings, Vibe Coding, 50+ Use Cases und Tool-Rabatte. Mehr erfahren »



