Moin AInauten,

Willkommen zur neuen Ausgabe deines Lieblingsnewsletters.

Kleiner Rückblick zum Einstieg: Wir hatten letzte Woche über das Anthropic Doppel-Leak geschrieben. Dort ging es unter anderem auch um das mysteriöse neue Modell namens Claude Mythos.

Jetzt wissen wir, was es damit auf sich hat … Anthropic hat diese Woche Project Glasswing gelauncht. Das Ziel: Mythos Preview wird für defensive Cybersecurity angesetzt, zusammen mit 11 großen Partnern wie AWS, Apple, Cisco, Google, Microsoft und NVIDIA.

Im Kern geht es um Folgendes: Software, die unser Leben am Laufen hält, vorab durch AI fixen. Die Idee ist gut und wichtig!

Mythos hat laut Anthropic schon "tausende unbekannte Schwachstellen" in gängigen Betriebssystemen und Browsern gefunden, die teilweise seit 20 Jahren bestehen.

Da kann einem schon richtig unwohl werden, wenn man daran denkt, dass unser ganzes Leben und unsere ganze Gesellschaft auf Software läuft…

Passend dazu haben wir heute auch noch ein weiteres gesellschaftskritisches Thema von OpenAI: Was tun, wenn AI uns arbeitslos macht?

Hier die Themen im Detail:

  • 🏛️ OpenAI's neuer Sozialvertrag und die unbequeme Frage dahinter

  • 🤖 Schluss mit der Ja-Sager AI

  • Token-Effizienz: wichtiger als Prompting?

Los geht's!

Diese Ausgabe wird dir präsentiert von:

🏛️ OpenAI's neuer Sozialvertrag und die unbequeme Frage dahinter

Sam Altman und OpenAI sind wieder einmal in den Schlagzeilen. Die Gründe sind aber spannend, weshalb wir es hier aufgreifen.

Sie beschäftigen sich nämlich mit der kritischen Frage für uns alle: Was tun, wenn die AI immer besser wird und AGI Level erreicht - und dadurch massive Veränderungen in Jobs & Co. entstehen?

Das ist ein Thema, über das wir uns alle Gedanken machen sollten.

OpenAI hat ein 13-seitiges Policy Paper rausgehauen mit dem Titel: "Industrial Policy for the Intelligence Age".

Die Kernaussage von Sam: "Die neuen AI Modelle werden das Steuer- und Sozialsystem zerlegen. Hier sind unsere Ideen, wie man es neu baut."

Die drei großen Vorschläge

  1. Steuerbasis verschieben
    Weg von Arbeit, hin zu Kapital, Unternehmensgewinnen und einer Steuer auf automatisierte Arbeit.

    Plus ein staatlicher Wealth Fund, aus AI-Firmen gespeist, der allen Bürgern Dividenden auszahlt.

    Vorbild: Alaska, das seit 1976 seine Öl-Einnahmen an die Einwohner ausschüttet.

  2. Produktivität in Zeit zurückgeben
    Pilotprogramme für eine 32-Stunden-Woche bei vollem Lohn. Portable Benefits, die nicht am Arbeitgeber hängen.

    Sozialnetze, die sich automatisch aufspannen, wenn AI-Disruption bestimmte Schwellen überschreitet.

  3. Infrastruktur & Aufsicht
    Schnellerer Netzausbau, ein "AI Trust Stack", bessere Audit-Märkte, mehr öffentliche Kontrolle über mächtige Systeme.

Was das für Deutschland heißt

Viele der Ideen sind für uns in Deutschland erstaunlich anschlussfähig.

Die Robotersteuer-Debatte läuft hier seit Jahren leise vor sich hin. Jetzt hat sogar die Deutsche Bank einen Erklärartikel dazu gemacht: "Soll die KI jetzt Steuern zahlen?"

Die deutsche 4-Tage-Woche-Pilotstudie (Uni Münster, 45 Unternehmen) ist abgeschlossen. Über 70% der Teilnehmer machen in irgendeiner Form weiter.

Wir haben also die Daten, die OpenAI gerade fordert, teilweise schon.

Auch in unserem Umfeld gibt es befreundete Unternehmer, die schon einige Jahre auf einer 4-Tage-Woche fahren und deren Firmen sich gut entwickeln.

Trotzdem muss die Wertschöpfung natürlich irgendwo passieren. Es stellt sich die Frage, wie gut andere Länder die großen AI Unternehmen besteuern können, um es dann umzuverteilen (klappt ja so Semi-gut aktuell).

Und dann kommt auch noch die Frage auf, wie gut die Umverteilung klappt, wenn der Staat das übernehmen soll...

Unser Take: Viele Fragen, erste Ideen, Diskussionsbedarf …

Die Idee, dass eine der großen AI Companies proaktiv über Verteilungsfragen schreibt, ist gut.

Geld haben zum Leben ist die eine Sache. Aber was passiert mit der Psyche der Menschen, wenn die Identifikation mit dem eigenen Job wegfällt? Das sind harte Themen, für die wir deutlich nicht qualifiziert sind.

Wir kommen selbst aus dem Marketing und sind uns im Klaren darüber, dass die AI einige Themen bereits besser macht als wir… Das Thema wird kommen, wenn auch nicht für alle Jobs und Branchen zur gleichen Zeit (siehe auch unseren Beitrag “Welche Branchen und Jobs trifft der AI-Sturm zuerst?“).

Fun-Fact: Am selben Tag ist im New Yorker eine 1,5 Jahre lang laufende Enthüllungsgeschichte über Sam Altman erschienen.

Diese basiert auf hunderten Seiten interner Dokumente, 100+ Interviews sowie Memos von Ilya Sutskever und Dario Amodei.

Via The New Yorker

Sie zeichnet ein Bild von Sam Altman, das weniger positiv ist und bei vielen die Frage aufwirft, ob er sich an seine Vorschläge halten würde, wenn es denn soweit ist.

Ein Beispiel daraus: OpenAI hatte öffentlich 20% der Compute-Kapazität für Safety-Alignment zugesagt. Tatsächlich bekam das Team laut Recherche nur 1-2% auf der ältesten Hardware zugesprochen. Viele haben OpenAI verlassen, dann wurde das Team aufgelöst…

Wer sich das im Detail durchlesen will, here you go!

Wir finden das Paper und auch die Reportage interessant, denn auch wir in Europa müssen Antworten finden - und vor allem auch eigene AI-Schwergewichte bauen. Das wäre wohl das Wichtigste…

P.S.: Wer in Sachen deutscher und europäischer AI-Politik auf dem Laufenden bleiben will, findet bei der Rise of AI-Konferenz in Berlin eines der spannendsten Pflaster. Thomas Jarzombek ist mit dabei, dazu Stimmen aus Bundestag und Europäischem Parlament. Genau dort werden diese Fragen operativ verhandelt. Mehr dazu gleich hier unten.

UNSER PARTNER: Rise of AI Conference 2026

Wo Deutschland und Europa wirklich über AI-Politik reden

Während OpenAI in Washington das Policy Paper schreibt, treffen sich am 6. Mai in Berlin 300 Entscheider, um genau diese Fragen für Deutschland und Europa zu diskutieren.

Klein, kuratiert, ehrlich, kein Vendor-Stand weit und breit.

Mit dabei: Thomas Jarzombek, Stimmen aus Bundestag und Europäischem Parlament, plus C-Level, Investoren und Forschung.

Wir sind selbst seit Jahren dort und berichten live.

Alle AINAUTEN bekommen 20% AInauten-Rabatt auf die Tickets. Oder können kostenlos im Stream dabei sein!

… oder kostenlos im Stream dabei sein (jetzt Ticket sichern).

🤖 Schluss mit dem Ja-Sager: 3 Wege, deine AI stärker zum Sparringspartner zu machen

Kurzer Themenwechsel, wieder zu etwas Praktischem.

Jeder kennt das: Du wirfst ChatGPT oder Claude eine Idee hin, und sie sagt "Super Plan!"

Dabei ist es ganz egal, wie löchrig deine Idee ist. Klar, denn die Bots wollen uns glücklich machen.

Das nervt. Aber nicht nur. Denn es ist auch gefährlich. Wer wichtige Entscheidungen mit einem digitalen Ja-Sager trifft, kriegt keine bessere Entscheidung - sondern nur eine, die sich besser anfühlt.

Das Phänomen hat einen Namen: Sycophancy. Auf Deutsch ungefähr "Schmeichelei". Es ist kein Bug, sondern ein Trainings-Artefakt. Die Modelle werden im Training (RLHF) belohnt, wenn ihre Antworten uns gefallen - und nicht, wenn sie uns widersprechen.

Sprich: Wir müssen dieses Verhalten aktiv aushebeln!

Hier sind drei Ansätze wie du das machst. Vom 10-Sekunden-Hack bis zum kompletten Council-Setup.

Stufe 1: Der 30-Sekunden-Hebel

Pack einen dieser Sätze ans Ende deines Prompts (oder einmal zentral in deine Custom Instructions):

Widersprich mir aktiv. Nenne mir die drei stärksten Gründe, warum meine Idee falsch sein könnte, bevor du sie kommentierst. Antworte ehrlich, auch wenn es unangenehm ist.

Studien zeigen, dass explizite Widerspruchs-Erlaubnisse die Ablehnungsrate von logisch fehlerhaften Aussagen auf bis zu 94% heben. Kleiner Prompt, großer Effekt.

Bonus-Tipp: Verrate deine eigene Meinung nicht im Prompt. "Was sind Pros und Contras?" ist besser als "Ist das die beste Lösung?".

Stufe 2: LLM-Council Skill bzw. Prompt

Andrej Karpathy hat im Dezember einen kleinen Weekend-Hack rausgehauen, der in der Community Wellen geschlagen hat: das LLM Council (siehe unseren Beitrag hier).

Die Idee: Du schickst deine Frage nicht an ein Modell, sondern an fünf "Berater" mit unterschiedlichen Gesichtspunkten:

  • einem Skeptiker

  • einem First-Principles-Denker

  • einem Möglichmacher

  • einem Außenseiter

  • einem Macher

Die bewerten sich anschließend gegenseitig (anonymisiert, damit keiner sich selbst in den Himmel lobt), und ein Chairman-Modell synthesized alles zu einer finalen Empfehlung.

Der originale Hack von Karpathy ist auf GitHub frei verfügbar. Hier ist eine Version, die entweder als Skill oder als Prompt genutzt werden kann. Mit nur einem Modell statt mehreren. Das natürlich nicht ganz so mächtig, aber ein guter Anfang.

Stufe 3: Perplexity Model Council

Das Mächtige an Karpathys Idee ist, dass er unterschiedliche AI-Modelle nutzt.

Wenn du das nicht selbst bauen oder aufsetzen willst: Perplexity hat im Februar das Model Council-Feature gelauncht.

Du stellst eine Frage und sie wird parallel an drei AI-Modelle gleichzeitig geschickt.

Typischerweise Claude Opus 4.6, GPT-5.2 und Gemini 3.0. Ein Synthesizer zeigt dir, wo die Modelle übereinstimmen und wo sie sich widersprechen. Ein Klick, keine Installation.

Nachteil: Nur für Perplexity Max Subscriber zugänglich. Aber wenn du eh schon ein Abo hast, probier's aus.

Unser Take: Schalte den Ja-Sager ab für bessere Antworten

Wir sagen es mal so: Wenn du das Gefühl hast, dass deine AI dir immer Recht gibt, liegt das nicht daran, dass du so schlau bist. Es liegt daran, dass sie so trainiert ist.

Die gute Nachricht: Du kennst nun den Handgriff, um den Ja-Sager abzustellen. Und die Antworten werden sofort besser. Ehrlicher. Brauchbarer.

⚡ Token-Effizienz: wichtiger als Prompting?

Wir sind gerade mittendrin in unserem AI MITARBEITER-Bootcamp und merken live, wie sich etwas verschiebt, das vor einem Jahr noch kaum ein Thema war.

Früher war die Schlüsselkompetenz, "gute Prompts schreiben können".

Heute, wo wir mit Claude Cowork/Code und richtigen Agenten arbeiten, ist es etwas anderes: Token-Effizienz!

Sprich: Wie du mit AI umgehst, ohne dass dein 20€ oder 200€ Abo innerhalb von zwei Stunden ausgereizt ist (mit dem Free-Tarif kommst du in ernsthafte Agenten-Workflows gar nicht erst rein).

Aber selbst die teureren Tiers sind schnell durch, sobald du ernsthaft arbeitest. Und die Modelle, die wirklich nützlich sind, fressen halt einfach mehr Tokens.

In unserem AI MITARBEITER-Bootcamp ist die Optimierung ein Dauerthema. Deshalb hier sechs Hebel, die du nutzen kannst, wenn du schnell ans Limit kommst:

1. Das richtige Modell für die Aufgabe

Du brauchst nicht für jede Standardanfrage das stärkste Modell. Jeder Anbieter hat auch schnellere und billigere Modelle im Angebot.

Schau dir an, wie sie heißen und stelle sie im Chat entsprechend ein.

2. Thinking Mode bewusst einsetzen

DieExtended Thinking”-Funktion haben auch die meisten aktiviert. Ist ebenfalls super, aber die zusätzlichen Denk-Tokens werden als Output abgerechnet.

Für "Schreib mir eine kurze Mail"-Prompts brauchst du das nicht. Nur für echte mehrstufige Probleme einschalten.

3. Kontext-Hygiene

Jede Nachricht in einem Chat schleppt den kompletten Verlauf mit. Ein Chat, in dem du seit zwei Stunden redest, kostet pro Nachricht ein Vielfaches mehr als eine frische Session. Deshalb öfter mal einen Chat zusammenfassen lassen und dann einen neuen Chat aufmachen. Und bei neuen Themen sowieso: neuer Chat. Klingt banal, spart massiv.

4. Konkrete statt schwafelige Prompts

Lange, höfliche Prompts kosten. Einmal beim Senden, einmal beim Antworten, weil das Modell die Tonalität oft spiegelt. Kurz, klar, Stichpunkt-Anweisungen.

Übrigens haben wir hier auch noch maximal Potenzial - wir reden einfach immer unstrukturiert rein 😁 ...

5. Outputs als Dateien, nicht im Chat

Wer mit Claude Code oder Cowork arbeitet: Lass dir längere Reports etc. in eine Datei schreiben statt in den Chat. Die Datei ziehst du später nicht mehr jedes Mal im Kontext mit, wenn du sie nicht explizit referenzierst.

6. Der Caveman-Trick

Den Caveman-Trick haben wir diese Woche auf Reddit gefunden und mussten lachen. Vielleicht ist es auch mehr ein Witz, aber die Idee dahinter könnte passen.

Ein User berichtet, er spart 60-75% Tokens, indem er Claude anweist, "wie ein Höhlenmensch" zu antworten.

Kein Geplänkel, keine Füllwörter, keine vollständigen Sätze. Nur das Wichtigste, in komprimierter Form.

Wenn dir das zu albern ist, geht auch die Soft-Variante: "Antworte direkt und kompakt. Keine Höflichkeitsfloskeln, keine Wiederholung meiner Frage. Stichpunkte wo möglich." Das kannst du auch so in deine Custom Instructions eintragen, by the way.

Fast der gleiche Effekt, sieht aber etwas professioneller aus. (Wichtig: der Caveman-Trick spart nur Output-Tokens, nicht die Denk-Tokens. Das Modell denkt genauso gründlich, es redet nur weniger.)

Unser Take: Token-Effizienz lohnt sich

Wir glauben, dass Token-Effizienz eine Schlüsselkompetenz im AI-Umgang sein wird. So wie früher "gut googeln" eine Fähigkeit war, über die keiner geredet hat, weil man davon ausging, dass es jeder kann, wird "token-effizient mit AI umgehen" zur neuen Selbstverständlichkeit.

Denn selbst wenn die Modelle billiger werden, wird unsere Nutzung weiter explodieren. Wir sehen das aktuell live im Bootcamp.

Aktuell wird hier noch viel subventioniert von den Anbietern. Aber das wird auch aufhören … Wahrscheinlich genau dann, wenn wir ohne AI nicht mehr auskommen.

Hol dir mal Claude Cowork mit 20€-Abo und du wirst sehen, wie schnell Schicht im Schacht ist. 😉

So, das war's für heute. Ein bisschen schwererer Stoff als sonst, aber alles Themen, die sich in den letzten Tagen zu sehr aufgedrängt haben, um sie zu ignorieren.

Wie immer: Feedback gerne zurück an uns. Und wenn du zu einem der Themen eine Meinung hast, besonders zu OpenAI's New Deal, wir lesen mit.

Bis am Weekend!

Reto & Fabian von den AInauten

Die AInauten Journey: So können wir dir helfen!

AI EXPLORER: Der schnelle Einstieg in die AI-Welt, perfekt zum Reinschnuppern, wenn du noch keine Erfahrung hast. Mehr erfahren » 

⭐⭐⭐ AI POWER USER: Werde zum AI-Profi in 30 Tagen. ChatGPT Masterclass, Prompting Pro Bootcamp, 50+ Deep-Dives mit wöchentlichen Updates. Spare 10+ Stunden pro Woche. Kein Abo. Mehr erfahren »

⭐⭐⭐⭐⭐ AI AUTOMATION EXPERT: Die Königsklasse. Alle unsere Trainings aus AI EXPLORER und AI POWER USER! Plus Community mit Support. Baue Systeme, die 24/7 für dich arbeiten - mit Zapier, Make, n8n Trainings, Vibe Coding, 50+ Use Cases und Tool-Rabatte. Mehr erfahren »

Weiterlesen