
Moin AInauten,
Willkommen zur neuen Ausgabe deines Lieblingsnewsletters!
Heute nehmen wir Anthropic genauer unter die Lupe, zeigen dir drei schnelle Tools gegen AI-Fakes und verraten einen simplen Prompt, den du dir abspeichern solltest, bevor dein nächster Chat wieder alles vergisst. Dazu ein kleines Fundstück aus New York: Donuts verkaufen sich offenbar besser, wenn ChatGPT sie gut findet…
Das haben wir heute für dich im Gepäck:
🚀 Anthropic löst alles gleichzeitig: Compute, Produkt, Bewertung
🔥 Fake oder Fakt? 3 kostenlose Tools, um AI-Fake-Bilder zu erkennen
💡 Kontextlimit? Prompt rettet AI-Sessions, bevor Wissen vernichtet wird
⭐️ Social Proof - ChatGPT als Kundenbringer
Los geht’s!
🚀 Anthropic löst alles gleichzeitig: Compute, Produkt, Bewertung
Wer Claude Code in den letzten Wochen ernsthaft benutzt hat, kennt das: Der Agent arbeitet, macht Fortschritte - und knallt gegen die Wand. Limit erreicht, später wiederkommen.
Anthropic hatte Claude Code zwischenzeitlich sogar vom Pro-Plan genommen. 24 Stunden später war es zurück, aber der Kratzer saß. Fortune schrieb von "Engineering-Fehlern", die ehrliche Version hat Dario Amodei beim Code-with-Claude-Event in San Francisco selbst geliefert: Anthropic hatte mit 10x Wachstum geplant. Gekommen sind 80x! Was an sich schon 🤯 ist…
Eine Lösung musste her, und das Resultat ist ein Deal, mit dem wohl niemand gerechnet hatte: Anthropic nutzt jetzt die gesamte Compute-Kapazität von SpaceX’ Colossus-1-Rechenzentrum.
Ja, genau. Claude läuft nun besser, weil Anthropic Kapazität bei Elon Musk einkauft!
Ein Deal, den vor drei Monaten niemand für möglich gehalten hätte: Im Februar nannte Elon Anthropic öffentlich „evil", Claudes AI sei „misanthropic." Aber man muss auch ehrlich sagen, dass die Nutzung von xAI deutlich hinter den Erwartungen zurückliegt und die verkaufte Rechenkapazität ihm geschätzte 3 bis 4 Milliarden pro Jahr bringt. Gleichzeitig kann er seinem Erzrivalen Sam Altman, den er gerade verklagt, eins auswischen.
Für uns als Nutzer zählt das Ergebnis: Die Fünf-Stunden-Rate-Limits für Claude Code sind ab sofort verdoppelt. Pro, Max, Team, Enterprise. Peak-Hour-Drosselung für Pro und Max weg. Opus-API-Limits laut Anthropic „deutlich gestiegen."
Wichtig zu wissen: Verdoppelt ist das Fünf-Stunden-Fenster, nicht die Wochenquote. Wer bisher regelmäßig am Stundenlimit war, hat jetzt doppelt so viel Luft. Wer eh sein Wochenlimit ausreizt, kann das ab jetzt schneller tun 😄.
Wir haben den Engpass während unseres AI-Mitarbeiter-Bootcamps öfter gespürt und sind froh, dass das jetzt gelöst ist.

via X
Managed Agents: Nicht mehr "einmal liefern und hoffen"
Anthropic hat für Claude Managed Agents drei Bausteine nachgelegt. Diese Features sind erstmal nur via API verfügbar, nicht via regulärem Claude Abo - aber sie zeigen, wohin die Reise geht:
Dreaming (Research Preview): Ein Agent analysiert über Nacht seine Sessions, findet Lücken und schreibt sich selbst Memory-Dateien für den nächsten Einsatz.
Multi-Agent Orchestration: Ein Lead-Agent delegiert an spezialisierte Agenten mit eigenem Kontext und eigenen Tools.
Outcomes (Public Beta): Du definierst, was "fertig" heißt. Claude iteriert, bis das Ergebnis dein Qualitätskriterium trifft, statt nach einem Durchlauf aufzuhören.
Vielleicht denkst du jetzt: "Okay, das sind halt wieder ein paar weitere Features, nett…” Aber es ist mehr. Es ist ein echter Richtungswechsel.
Vor einem Jahr arbeiteten Agenten minutenlang. Heute laufen sie stundenlang. Dreaming, Outcomes und Multi-Agent sind genau dafür gebaut: für Arbeit, die über Nacht weitergeht - nicht für den netten Chat.

Wem Anthropic gehört und wer dafür zahlt
SpaceX ist dabei nur einer von vielen Compute-Partnern. Anthropic hat nebenbei erwähnt, dass sie mit SpaceX über Rechenzentren im Orbit reden. Kein Witz.
In den letzten Monaten gab es weitere spannende Deals: Amazon, Google/Broadcom ab 2027, 30 Milliarden Azure-Kapazität mit Microsoft und NVIDIA, 50 Milliarden Infrastruktur mit Fluidstack und eine 200-Milliarden-Dollar-Abnahmeverpflichtung gegenüber Google Cloud.
Amazon ist dabei der größte Investor und hat 8 Milliarden investiert - plus Option auf 25 weitere. Google hält 14 Prozent, das vertraglich vereinbarte Maximum - aber ohne Stimmrecht, ohne Board-Seat. Das hindert Google nicht daran, bis zu 40 Milliarden nachzulegen. Anthropic macht mittlerweile über 40 Prozent von Google Clouds Umsatz-Backlog aus.
Ein Anthropic-Börsengang ist geplant für Ende 2026 - bei einer Second-Market-Bewertung von 1,2 Billionen… Das ist mehr als OpenAI, das bei 880 Milliarden steht. Sam will auch einen Börsengang, aber seine Finanzchefin hält dagegen - man sei noch nicht bereit dafür…
Unser Take: Mehr Compute und cleveres Engineering = 🚀
SpaceX-Kapazität und verdoppelte Limits lösen den Schmerz, den jeder sofort spürt. Aber ob ein Agent bei langen Läufen zuverlässig bleibt, ob er schleichend vom Weg abkommt, ob du hinterher nachvollziehen kannst, was passiert ist - dafür braucht es nicht mehr Kapazität, sondern cleveres Engineering.
Genau dafür sind Outcomes, Dreaming und Multi-Agent da. SpaceX gibt die Kapazität. Managed Agents sollen verhindern, dass sie in längeren, teureren Fehlversuchen verpufft.
Wer Agents produktiv einsetzen will: komm in die AI + Automation-Community!
Und wer noch tiefer ins Thema rein will, hier ist das 4-Stunden-Video mit allen Details und Präsentationen des Anthropic-Führungsteams - und du kannst Boris, dem Creator von Claude Code, über die Schulter schauen, wie er das Tool täglich nutzt. Cool!
🔥 Fake oder Fakt? 3 kostenlose Tools, um AI-Fake-Bilder zu erkennen
Niemand kann heute mehr echte von AI-generierten Bildern unterscheiden.
Zugegeben, früher war es einfacher, AI-Bilder zu spotten: zu viele Finger, Fantasietexte im Hintergrund, usw. Das klappt noch bei schlechten Bildern. Bei guten nicht mehr.
Manchmal haben wir das Bedürfnis, ein Bild zu testen. Wir packen es dann schnell in Hive Detect. Nicht, weil Hive die absolute Wahrheit liefert. Sondern weil der Test schnell genug ist, dass man ihn wirklich macht. Bild rein, Score raus, fertig.
Wenn wir es genauer wissen wollen, nehmen wir Image Whisperer dazu. Das Tool schaut breiter: Modell-Scores, Bearbeitungsspuren, Schatten, Perspektive, Metadaten, Reverse Image Search und bekannte Fake-Datenbanken. Aktuell sind im kostenlosen Plan 2 Checks pro Tag drin. Klingt geizig, ist für die "warte mal kurz"-Fälle aber okay.

Image Whisperer finden wir besonders hilfreich. Es hat nicht nur erkannt, dass es sich hier um ein AI-generiertes Bild handelt - sondern auch noch erklärt, warum. Damit lernt man gleich, auf was man achten muss.
Zum Beispiel:
Unnatürlich glatte Haut ohne Poren oder Makel - sieht aus wie “airbrushed”
Zu gleichmäßige, perfekt wirkende Beleuchtung ohne erkennbare Lichtquelle
Künstlich wirkende Haare und Hintergrundunschärfe, idealisierte Zähne
Kaum Bildrauschen oder Textur, typisch für AI-Bilder oder Upscaling
ZeroGPTs AI Image Detector ist die dritte schnelle Option. Bild hochladen, Ergebnis anschauen. Das ist ideal, wenn man eine zweite Meinung will.
Für den Alltag reichen diese Schnelltests. Die meisten Fakes, die in WhatsApp-Gruppen, E-Mails oder LinkedIn-Kommentaren auftauchen, sind keine forensischen Meisterwerke.
P.S. Für den tieferen Blick auf digitale Forensik lohnt sich dieser Science-Artikel. Danach schaut man nicht mehr nur auf Finger. In den Beispielen im Artikel wird visuell schön erklärt, wie man ein Bild untersuchen kann - gar nicht so schwierig, wenn man das mal gesehen und verstanden hat. Ein Ansatz ist zum Beispiel, den Fluchtpunkt zu bestimmen. Damit siehst du schnell, ob das ein echtes oder falsches Bild ist. ⤵

via science.org

via science.org

via science.org
💡 Kontextlimit? Dieser Prompt rettet deine AI-Sessions, bevor Wissen vernichtet wird
Das Kontextlimit in unseren AI-Sessions fliegt uns meist dann um die Ohren, wenn die AI endlich verstanden hat, was wir wollen. Zwei Stunden Arbeit, 30-mal Ping-Pong, drei verworfene Ansätze. Und dann wird alles kompaktiert.
Der Chat fühlt sich danach “dümmer” an und die erste Viertelstunde der neuen Session geht dafür drauf, Sachen zu wiederholen, die eigentlich schon geklärt waren.
Auf X haben wir einen praktischen Ansatz von Matt Pocock gefunden, um das zu lösen. Er hat einfach einen Skill dafür gebaut: /handoff.
Damit komprimiert das Modell die laufende Session in ein Übergabedokument: Ziel, Kontext, produzierte Artefakte, getroffene Entscheidungen, offene Blocker, konkrete nächste Schritte. Das landet als Markdown auf deiner Festplatte.
Du kannst dir vorstellen: wir lieben das! Weil wir ja eh immer sagen, dass man die Chats aus dem System rausbringen soll, um flexibel zu bleiben - Files over Tools.
/handoff kopiert dabei nicht einfach deinen Chatverlauf. Er referenziert vorhandene Artefakte (PRDs, Pläne, Issues, Code-Dateien) per Pfad oder Link, statt sie in die neue Session zu duplizieren. Das hält das Kontextfenster schlank für die eigentliche Arbeit.
Und er notiert, welche Skills oder Arbeitsmodi die nächste Session braucht. Der neue Chat weiß sofort, wo er einsteigen soll.
So baust du den Handoff-Skill bei dir ein
Einfach Claude oder Codex den Link geben und sagen: “Installier mir das!” Oder die SKILL.md herunterladen und in dein .claude/skills/-Verzeichnis legen.
Wenn die Session lang wird: /handoff tippen, dann die generierte Markdown-Datei in die neue Session einfügen.
Das Prinzip funktioniert überall, wo AI-Sessions länger als 30 Minuten dauern. Egal ob Research, Strategiearbeit, Projektplanung oder Content: Wer nur den fertigen Output speichert und den aufgebauten Kontext wegwirft, verliert das Wertvollste der ganzen Session.
Der Skill ist aktuell als „in-progress" markiert und lebt primär in Claude Code. Aber die Idee passt in jedes AI-Setup. Wer kein Claude Code nutzt, kann die Idee auch als normalen Prompt verwenden. Das hier funktioniert in jedem Chatfenster:
Komprimiere diese Session in ein Übergabedokument:
- Aktuelles Ziel und Teilziele
- Kontext, der mehrere Turns gebraucht hat
- Produzierte Artefakte (mit Pfaden/Links)
- Getroffene Entscheidungen und warum
- Was blockiert
- Nächste Schritte für die FortsetzungAlimama Tea verkauft Mochi-Donuts in New Yorks Chinatown. Gute Donuts offenbar - aber das ist nicht der Grund, warum der Laden letzte Woche viral gegangen ist.
Nein, der Grund war der Aufsteller mit einem Screenshot aus der ChatGPT-App.
Die Frage: „Best mochi donut in NYC?" Die Antwort: „Alimama Tea - hands down."
Kein Influencer-Zitat, kein Google-Maps-Review.
Einfach: Die AI sagt, wir sind die Besten. Punkt.
Solche Fragen wären vor zwei Jahren bei Google gelandet. Im Gegensatz zu Google lassen sich Positionen in den Chatbots noch nicht kaufen wie bei den Google Ads - “von ChatGPT empfohlen” wird somit zum neuen Gütesiegel.
Wenn ein Donut-Laden das kapiert hat, lohnt sich ein Blick auf die eigene Sichtbarkeit - siehe dazu auch unseren Beitrag von letzter Woche und diesen Deep-Dive. Wenn dich das Thema interessiert, lass kurz ein Feedback da.
Geschafft! Bis zur nächsten Ausgabe.
Reto & Fabian von den AInauten
Die AInauten Journey: So können wir dir helfen!
⭐ AI EXPLORER: Der schnelle Einstieg in die AI-Welt, perfekt zum Reinschnuppern, wenn du noch keine Erfahrung hast. Mehr erfahren »
⭐⭐⭐ AI POWER USER: Werde zum AI-Profi in 30 Tagen. ChatGPT Masterclass, Prompting Pro Bootcamp, 50+ Deep-Dives mit wöchentlichen Updates. Spare 10+ Stunden pro Woche. Kein Abo. Mehr erfahren »
⭐⭐⭐⭐⭐ AI AUTOMATION EXPERT: Die Königsklasse. Alle unsere Trainings aus AI EXPLORER und AI POWER USER! Plus Community mit Support. Baue Systeme, die 24/7 für dich arbeiten - mit Zapier, Make, n8n Trainings, Vibe Coding, 50+ Use Cases und Tool-Rabatte. Mehr erfahren »


⭐️ Social Proof - ChatGPT als Kundenbringer