
AIHOY und happy Weekend, liebe AInauten!
Vielleicht hast du letzte Woche nicht alle spannenden News, Tools und Hacks rund um das Thema AI mitbekommen oder bist erst neu bei uns gelandet. Kein Grund zur Sorge!
Wir haben dir unsere Highlights der vergangenen Woche zusammengefasst:
Zum Abschluss gibt es noch die wichtigsten Quick News für dich - so hast du alle relevanten Entwicklungen mit einem Klick im Blick! Ready? Let's go!
🔥 Die AINAUTEN Journey - Dein Weg zum AI-Profi 🔥
3 Stufen. Ein Ziel: AI wirklich meistern. Alles Schritt für Schritt erklärt.
》AI EXPLORER - Der schnelle Einstieg mit Jumpstart Guide & Basics.
》AI POWER USER - ChatGPT Masterclass, 50+ Deep-Dives, 10+ Stunden pro Woche sparen. Für alle, die AI im Alltag produktiv nutzen wollen.
》AI AUTOMATION EXPERT - Die Königsklasse. Baue Systeme, die 24/7 für dich arbeiten. Lerne Automation, 50+ Use Cases, exklusive Community mit 1000+ Experten. Plus: Exklusive Tool-Rabatte im Wert von 2.000€+/Jahr.
Diese Ausgabe wird dir präsentiert von:
Sam Altman hatte ein One-Person-Unicorn prognostiziert, jetzt ist es laut Berichten da: Ein Gründer in L.A., 20.000 Dollar Startkapital, ein Dutzend AI-Tools, rund 401 Millionen Dollar Umsatz im ersten Jahr. Klingt nach Gründer-Traum. Beim genaueren Hinsehen wird es komplizierter: verschreibungspflichtige Medikamente, FDA-Warnung, Deepfake-Vorher-Nachher-Bilder und Fake-Ärzte-Profile auf Facebook.
Die Geschichte ist ein Live-Experiment dafür, was passiert, wenn AI die Koordinationskosten senkt, aber Governance nicht mitskaliert. AI wertet nicht. Der Unterschied liegt darin, wie du die Tools verwendest. Die One-Person-Company ist keine Science-Fiction mehr, aber es gibt keinen eingebauten Moralschalter. Weniger Menschen im Team bedeutet nicht weniger System, sondern mehr Governance-Bedarf.
Wer Drittanbieter-Tools wie OpenClaw über ein Claude-Abo nutzt, zahlt ab sofort extra. Anthropic hat klar gemacht, dass die Flatrate-Abos nicht für den Token-Verbrauch von AI-Agenten ausgelegt sind. Gleichzeitig hat Anthropic letzte Woche versehentlich den kompletten Quellcode von Claude Code veröffentlicht, eine halbe Million Zeilen, die für die Branche ein seltener Blick hinter die Kulissen sind.
Auf der anderen Seite liefert Claude Cowork jetzt ein Interface, das für normale Menschen funktioniert: 120 Features in 90 Tagen, 50 Konnektoren für Gmail, Slack, Notion und mehr. Claude steuert sogar deinen Computer. In unserem AI-Mitarbeiter-Bootcamp zeigen ganz normale Nutzer, wie sie Präsentationen, Landingpages und E-Mail-Workflows damit bauen. Das ist nicht mehr AI als Chatbot, sondern AI, die echte Tasks übernimmt.
Die Idee, dass du für AI ein teures Abo brauchst, ist überholt. Googles brandneues Gemma 4 läuft über die AI Edge Gallery komplett offline auf deinem Smartphone, versteht Text, Bilder und Audio in über 140 Sprachen, ohne Account und ohne API-Key. Auf dem Laptop machen Ollama und LM Studio lokale Modelle in Minuten zugänglich.
Die Use Cases sind konkret: Anwälte, die Verträge lokal einlesen, ohne dass Inhalte das Gerät verlassen. Coaches, die Gesprächsnotizen mit Mandantenschutz verarbeiten. Meetings transkribieren ohne Cloud. Lokal macht Cloud nicht überflüssig, für die großen Aufgaben willst du weiterhin die besten Modelle nutzen. Aber für Alltagsfragen reicht oft ein lokales Modell. Give it a try!
Sam Altman hat mit einem 13-seitigen Policy Paper die Fragen auf den Tisch gelegt, die alle beschäftigt: Was passiert mit Jobs und Sozialsystemen, wenn AI AGI-Level erreicht? OpenAI schlägt unter anderem vor, die Steuerbasis von Arbeit auf Kapital zu verschieben, Pilotprogramme für eine 32-Stunden-Woche zu starten und einen staatlichen Wealth Fund einzurichten. In Deutschland sind einige dieser Ideen erstaunlich anschlussfähig: Die Robotersteuer-Debatte läuft seit Jahren und die 4-Tage-Woche-Pilotstudie der Uni Münster ist abgeschlossen.
Am selben Tag erschien im New Yorker eine 1,5 Jahre lang recherchierte Enthüllungsgeschichte über Sam Altman. Unter anderem kam heraus, dass OpenAI intern nur 1-2 Prozent Compute für Safety bereitstellte, obwohl öffentlich 20 Prozent zugesagt waren. Ob Altman sich an seine eigenen Vorschläge halten würde, bleibt die offene Frage. Klar ist: Auch Europa muss Antworten finden und vor allem eigene AI-Schwergewichte bauen.
Jeder kennt das Problem: Du wirfst deiner AI eine Idee hin und sie sagt "Super Plan!", egal wie löchrig der Vorschlag ist. Das Phänomen heisst Sycophancy und ist kein Bug, sondern ein Trainings-Artefakt. Die Modelle werden belohnt, wenn ihre Antworten uns gefallen, nicht wenn sie uns widersprechen.
Es gibt drei Stufen dagegen. Der schnellste Hebel: Ein Satz in den Custom Instructions, der die AI explizit zum Widerspruch auffordert. Studien zeigen, dass das die Ablehnungsrate fehlerhafter Aussagen auf bis zu 94 Prozent hebt. Stufe zwei ist ein LLM-Council nach Andrej Karpathy, bei dem mehrere Perspektiven sich gegenseitig bewerten. Stufe drei: Perplexitys Model Council, das deine Frage parallel an drei verschiedene Modelle schickt und zeigt, wo sie sich widersprechen.
Früher war die Schlüsselkompetenz "gute Prompts schreiben". Heute, wo Claude Cowork und echte Agenten-Workflows laufen, verschiebt sich der Fokus: Token-Effizienz wird zur neuen Kernkompetenz. Selbst das 20-Euro-Abo ist nach ein paar Stunden ernsthafter Agenten-Arbeit am Limit.
Sechs konkrete Hebel helfen: das richtige Modell wählen statt immer das stärkste, Thinking Mode nur bei echten Problemen einschalten, Kontext-Hygiene durch regelmässiges Starten neuer Chats, konkrete statt schwafelige Prompts, Outputs als Dateien statt im Chat, und der sogenannte Caveman-Trick. Token-Effizienz wird die neue Selbstverständlichkeit, so wie früher "gut googeln" eine war.
📰 AI-News-Quickie: Die HAI-lights aus der Branche
AI never sleeps! Hier die wichtigsten News der letzten Tage.
OpenAI: Zwischen Ambition und Gegenwind
OpenAI stoppt die geplante Milliarden-Investition in Grossbritannien. Energiekosten und Regulierung bremsen die internationale Expansion.
OpenAI hat ein 13-Seiten Industrial Policy Paper veröffentlicht: National Wealth Fund aus AI-Firmen-Gewinnen, eine Steuer auf automatisierte Arbeit und eine 32-Stunden-Woche. Das Paper kommt auffällig kurz vor dem angeblich geplanten IPO in Q4 2026 - Timing ist kein Zufall.
Gleichzeitig stimmt intern die Stimmung laut Berichten nicht mehr. Der Kulturwandel seit der Umstrukturierung hinterlässt sichtbare Spuren, und wer den New-Yorker-Artikel von dieser Woche gelesen hat, ahnt warum.
OpenAI plant einen gestaffelten Rollout eines neuen Modells - wegen Cybersecurity-Risiken. Ob das echte Vorsicht ist oder PR nach den jüngsten Enthüllungen, darf jeder selbst beurteilen.
OpenAI veröffentlicht einen Child Safety Blueprint mit konkreten Massnahmen. Angesichts der Vorwürfe um mangelnde interne Safety-Ressourcen ein wichtiges Signal nach aussen. Ob innen genauso viel passiert?
Parallel dazu startet OpenAI ein Safety Fellowship-Programm: 3.850 Dollar pro Woche, rund 15.000 Dollar Compute monatlich, Mentorship durch interne Forscher.
Musk vs. OpenAI geht weiter: Musk hat seine Klage geändert und fordert nun, dass die 150 Milliarden Dollar Schadensersatz an den Non-Profit-Arm von OpenAI gehen, nicht an ihn persönlich. Die Jury Selection startet am 27. April und die vielleicht teuerste Scheidung der Tech-Geschichte nimmt Fahrt auf.
Angehörige von Opfern einer Schiesserei in Florida verklagen OpenAI. Der Shooter war laut Klage in ständigem Kontakt mit ChatGPT. Ob die Klage Bestand hat, ist offen - aber sie wird die Debatte um AI-Haftung weiter anheizen.
Claude und Anthropic liefern weiter
Claude Code Channels machen AI-Workflows geräteunabhängig. Starte eine Aufgabe am Desktop, mach unterwegs auf dem Handy weiter. Für alle, die mit Cowork arbeiten, ist das ein spürbarer Hebel im Alltag.
Anthropic startet Project Glasswing und setzt Mythos Preview gezielt für Cyberabwehr ein. Die Idee: AI, die unsere Software proaktiv gegen AI-Angriffe absichert. Wenn Anthropic sein stärkstes Modell nicht zum Chatten freigibt, sondern zur digitalen Landesverteidigung einsetzt, sagt das einiges über den Reifegrad der Debatte…
Claude Code bekommt Subagents mit @ Mentions. Du tippst @agent-name und rufst spezialisierte Agenten auf, jeder mit eigenem System Prompt und Toolset. Statt ein Modell mit allem zu überladen, delegierst du gezielt. Genau so sollte Agent-Orchestrierung funktionieren!
Die Managed Agents APIs gehen in die Public Beta - mit 90 Prozent weniger Latenz dank entkoppelter Architektur. Wer eigene Agenten baut, bekommt damit eine produktionstaugliche Infrastruktur an die Hand.
Google und Big Tech mischen die Karten neu
Google macht es einfach, sich selbst zu deepfaken. Synthetische Medien werden mit jedem Update zugänglicher, die ethischen Fragen drängender.
Gleichzeitig verbreiten Googles AI Overviews laut einer Analyse Desinformation in einem Ausmass, das es so vorher nicht gab…
NotebookLM wird direkt in den Gemini-Chatbot integriert. Projektbasiertes Arbeiten mit Quellenmanagement wird damit native. Für alle, die NotebookLM bereits lieben: Es wird bald überall sein.
Google Stitch bekommt Predictive Heatmaps für App-Entwicklung. Statt raten, wo Nutzer klicken, zeigt dir AI jetzt vorab, wo sie hinschauen werden.
Google TurboQuant packt den KV-Cache auf 3 Bits, ohne messbare Qualitätsverluste. Klingt nach Nerd-Thema, ist aber ein echter Hebel: LLMs laufen damit auf deutlich kleineren GPUs.
Google Colab bekommt einen Learn Mode. Statt dir den Code zu schreiben, gibt Gemini Schritt-für-Schritt-Guidance, damit du ihn selbst schreibst.
Googles VP für Gmail hat erklärt, wie Gemini mit deinen E-Mails umgeht: Nur auf Anfrage, nichts wird gespeichert, 18 Monate Auto-Lösch-Zyklus. Ob das die Datenschutz-Bedenken beruhigt? Zumindest ist es transparent.
Die Hardware-Allianzen verschieben sich: Intel steigt in Musks Terafab-Projekt für AI-Chip-Produktion ein, und Uber setzt auf Amazons AI-Chips und umgeht damit Oracle und Google. Die Chipkriege von 2026 werden nicht in Pressemitteilungen gewonnen, sondern in Lieferverträgen.
Mustafa Suleyman sagt nach dem Release von drei neuen Microsoft-Foundation-Modellen (MAI): AI Development wird kein Plateau erreichen. Microsoft ist jetzt frei, AGI allein zu verfolgen, ohne OpenAI-Abhängigkeit.
Meta: Reasoning für alle und Stimmungswandel bei Gen Z
Meta hat mit Muse Spark das erste Modell der neuen Superintelligence Labs vorgestellt. 58 Prozent auf dem Humanity's Last Exam Benchmark, direkt in die Meta AI App gepackt. Meta will AI nicht als Entwickler-Tool, sondern als Alltagsintelligenz für drei Milliarden Nutzer positionieren.
Gen Z verliert die AI-Begeisterung. Der Anteil der Begeisterten ist laut Umfragedaten von 36 auf 22 Prozent gefallen. Qualitätsprobleme, Datenschutzbedenken und enttäuschte Erwartungen treiben den Frust.
X rollt den Grok Photo Editor aus: Textbasierte Bildbearbeitung direkt im Feed. Du tippst "Make it oil painting" und Grok macht's, mit automatischer Übersetzung obendrauf. Musk baut damit AI tiefer in X ein als je zuvor.
Gesellschaft und Recht: Die Nebenwirkungen des Booms
Die ProPublica-Gewerkschaft streikt und fordert AI-Schutz und faire Löhne. Ausgerechnet die Redaktion, die einige der besten investigativen Recherchen zu Tech macht, muss jetzt selbst um Schutz vor der Technologie kämpfen.
Suno und die großen Musikkonzerne liefern sich einen Streit über AI-Musik-Sharing, der das Zeug zur Grundsatzdebatte hat. Was bei Texten und Bildern schon eskaliert ist, kommt jetzt in der Musikbranche an.
Positiv: Forscher entwickeln ein AI-Tool, das Herzinsuffizienz-Risiko 5 Jahre früher erkennt. Konkrete Gesundheitswirkung, nicht nur Paper. Genau solche Anwendungen zeigen, wo AI wirklich einen Unterschied macht.
Lesenswert: Warum AI-Systeme still versagen und das gefährlicher ist als ein sichtbarer Absturz. Wenn dein Agent leise falsche Entscheidungen trifft, merkst du es erst, wenn der Schaden schon da ist.
Iran nutzt AI-generierte LEGO-Propaganda-Videos für geopolitische Botschaften. Die Clips gehen viral, schneller als echte News. Die Slopaganda-Welle zeigt: AI-generierte Desinformation braucht kein Hollywood-Budget mehr, ein Prompt reicht.
Ex-Apple-Entwickler bauen ein Privacy-first AI-Wearable. Kein Cloud-Upload, keine Datensammlung, alles on-device. Nach dem Humane-Fiasko und dem Rabbit-Flop will hier jemand zeigen, dass es auch anders geht.
AI-Gruppenchats haben ein Gedächtnisproblem: Sobald mehrere Nutzer gleichzeitig mit einem Bot interagieren, verliert er den Faden. Das klingt banal, ist aber ein echtes Problem für Teams, die AI-Assistenten in ihre Kommunikation einbinden wollen.
Builder-Tools: Wer baut, hat die Nase vorn
HeyGen launcht Avatar V mit 15-Sekunden Identity Capture. Eine kurze Aufnahme reicht, und du hast einen digitalen Zwilling, der für dich spricht. Die Einstiegshürde für synthetische Video-Inhalte sinkt weiter, und das Missbrauchspotenzial steigt mit.
Pika Labs launcht PikaStream 1.0, die erste Video-Chat-Funktion für AI-Agenten. Dein Agent bekommt ein Gesicht, eine Stimme und Memory. Er erscheint im Google Meet Call und erinnert sich an das letzte Gespräch.
Spotify Prompted Playlists funktionieren jetzt auch für Podcasts. Premium-User können AI-generierte Listen mit Prompts wie "True Crime mit überraschenden Wendungen" erstellen.
CapCut integriert Dreamina Seedance 2.0 für AI-Video-Generierung direkt im Editor. ByteDances Videomodell taucht jetzt in einer der populärsten Video-Apps der Welt auf.
Qwen 3.6 Plus hält laut Benchmarks mit Claude Opus beim Coding mit. Wer das nicht auf dem Radar hat, verpasst eine ernstzunehmende Open-Source-Alternative. Für Agenten-Workflows mit Budget-Limits besonders interessant.
Factory.ai launcht eine Desktop-App für Multi-Agent Droids. Mehrere Agenten, die parallel an verschiedenen Tasks arbeiten, koordiniert über ein Interface. Das Orchestrierungsproblem bekommt eine brauchbare Lösung.
Auch Cursor bringt Remote Agents aufs Smartphone. Du startest einen Coding-Job auf dem Handy, der Agent arbeitet in der Cloud weiter.
Das nächste Bottleneck: AI produziert 100x, aber der Review-Prozess hält nicht mit. Der Engpass verschiebt sich von der Produktion zur Qualitätssicherung. Wer das löst, hat einen echten Wettbewerbsvorteil.
HappyHorse 1.0 toppt die Artificial Analysis Leaderboard als bester Open-Source Video-Generator. Das Ex-Alibaba-Team hat leise etwas gebaut, das die grossen Player unter Druck setzt.
Databricks-Mitgründer Matei Zaharia gewinnt den ACM Computing Prize und sagt: "AGI exists already, just not in a form we appreciate." Die AI-Industrie missdefiniert laut ihm das Problem.
Geschafft! Aber kein Grund zum traurig sein. Die AInauten sind schon bald wieder zurück, mit neuem Futter für dich.
Bis am Montag, mit einer frischen Runde News, Hacks und Insights für dich!
Deine AInauten
Fabian & Reto
Die AInauten Journey: So können wir dir helfen!
⭐ AI EXPLORER: Der schnelle Einstieg in die AI-Welt, perfekt zum Reinschnuppern, wenn du noch keine Erfahrung hast. Mehr erfahren »
⭐⭐⭐ AI POWER USER: Werde zum AI-Profi in 30 Tagen. ChatGPT Masterclass, Prompting Pro Bootcamp, 50+ Deep-Dives mit wöchentlichen Updates. Spare 10+ Stunden pro Woche. Kein Abo. Mehr erfahren »
⭐⭐⭐⭐⭐ AI AUTOMATION EXPERT: Die Königsklasse. Alle unsere Trainings aus AI EXPLORER und AI POWER USER! Plus Community mit Support. Baue Systeme, die 24/7 für dich arbeiten - mit Zapier, Make, n8n Trainings, Vibe Coding, 50+ Use Cases und Tool-Rabatte. Mehr erfahren »
Du musst kein Technikprofi sein, um mit AI richtig Zeit zu sparen. Im AI AUTOMATION EXPERT zeigen wir dir Schritt für Schritt, wie du wiederkehrende Aufgaben abgibst, Content schneller produzierst, Leads sauber nachfasst und Prozesse automatisch laufen lässt.
Hier lernst du konkret auch als absoluter Anfänger und Nicht-Techie, wie du deine Prozesse automatisieren kannst. Verständlich erklärt, mit Vorlagen, die sofort funktionieren, und einer Community, die dir den Rücken stärkt.
Noch unsicher? Starte mit dem AI POWER USER oder schau dir die komplette Journey an.
Klingt gut, aber was sagen andere? Schau dir unsere “Wall of Love” an.


