AI-HOI AInauten,
Willkommen zur neuen Ausgabe deines Lieblingsnewsletters - heute mit mehr Praxis-Tiefgang zu zwei der wichtigsten Flaggschiff-Produkte von OpenAI und Google, und einer weiteren Black-Mirror-Episode, die zur Realität wurde 👓 …
Das haben wir für dich im Gepäck:
Und falls du die spannendsten Quick News verpasst hast, einfach in der Weekend-Ausgabe nachlesen. Los geht’s!
P.S.: Mehr Videos und Tipps von uns gibt es übrigens hier bei AInauten-Premium.
🤝 ChatGPT Canvas - dein neuer Assistent im Praxis-Test
OpenAI will weniger mit Drama in den News landen, sondern mit Progress. Gerade wurde die neue Benutzeroberfläche Canvas veröffentlicht - das erste große Update seit seiner Einführung vor zwei Jahren! Damit wird die Interaktion mit ChatGPT um einiges effizienter, zielführender und kollaborativer.

Wann und wie kannst du ChatGPT Canvas nutzen?
Viele vergleichen Canvas mit Claude Artifacts von Anthropic und NotebookLM von Google, aber eigentlich haben diese Tools alle ihre eigenen, speziellen Stärken.
ChatGPT Canvas bietet einen kollaborativen Arbeitsbereich, der sich perfekt zum Programmieren und Schreiben eignet, Claude Artifacts zeichnet sich durch kreative Erstellung von Apps aus, und NotebookLM glänzt bei der Verwaltung großer Informationsmengen.
Voraussetzung ist aktuell ein kostenpflichtiger ChatGPT Plus oder Team-Account, nach der Beta-Phase soll es auch kostenlosen Nutzern zur Verfügung stehen. Zurzeit ist es auch nur via Web verfügbar und noch nicht via Mobile und Desktop App.
Die Nutzung selbst ist straight-forward: Einfach "GPT-4o mit Canvas" im Modell-Selektor auswählen, und los geht’s!
Was kann das neue ChatGPT Canvas Feature?
Es ist ein offener Arbeitsbereich, mit kontextabhängigem User Interface und detaillierter Iterationsmöglichkeit. Konkret bedeutet das:
Du hast ein separates Bearbeitungsfenster neben dem Chat-Interface
Du kannst Text und Code direkt bearbeiten und verfeinern
Du erhältst kontextbezogene Vorschläge und Feedback von ChatGPT
Beim Schreiben von Texten kannst du die Länge und das Leseniveau ganz einfach anpassen, und abschließend auf Grammatik, Klarheit und Konsistenz prüfen lassen. Und, Achtung, darauf hat die Welt gewartet: Du kannst mit einem Klick Emojis hinzufügen! 😁
Canvas ist also perfekt für das Schreiben von allen möglichen Inhalten - du wirst vielleicht bald mehr Zeit in ChatGPT verbringen als in Word oder Google Docs.
Super praktisch ist auch die Möglichkeit, einzelne Schritte wieder rückgängig zu machen und Shortcuts zu nutzen. Bisher musste man den gesamten Output immer wieder komplett generieren lassen, um zu verfeinern, was der Chatbot ausspuckte.

Laien Programmierer (oder solche die es werden wollen), werden die Coding-Features zu schätzen wissen: Review des Codes, Kommentare direkt hinzufügen lassen, Debugging und sogar Konvertierung zwischen verschiedenen Programmiersprachen! Du kannst Code aller Art generieren lassen, von der Browser-Erweiterung bis zu Replit.
Claude hat definitiv mit dem Release der “Artifacts” ein neues Kapitel geschrieben, von dem ChatGPT sich hier hat inspirieren lassen. Mit Claude kannst du deine App entwickeln, direkt im Browser nutzen und sogar mit anderen teilen. So weit geht ChatGPT aktuell noch nicht, es lässt sich lediglich der Code erstellen und editieren.
Im Gegensatz zu Claude hat ChatGPT Canvas auch Zugang zum Internet - eine echte Bereicherung. Aber Achtung: “Prompt Injections” sind damit theoretisch möglich…

Pliny, seines Zeichens “Latent Space Liberator”, hat bereits das System Prompt herausgekitzelt - und auch du kannst das selbst mit einem einfachen Prompt nachvollziehen. Warum du das tun solltest? Weil es super spannend ist, in die “geheimen” Instruktionen reinzuschauen, die das Verhalten des Modells steuern.
What’s next? Agenten und multimodale AI, always on …
Was als nächstes kommt, darüber schweigt sich OpenAI noch aus. Aber wir schauen gerne mal in die Glaskugel und spinnen ein paar Ideen weiter.

via Giphy
Es scheint gesichert, dass uns nächstes Jahr Agenten erwarten. Und das wird ein echter Paradigmenwechsel werden! Diese Helferlein werden in der Lage sein, selbstständig Aufgaben für dich zu erledigen. Bis es soweit ist, werden wir im Laufschritt Schritt für Schritt von OpenAI und Co. an diese neue Welt herangeführt.
Nachdem wir seit kurzem auch den Advanced Voice Mode zur Verfügung haben (kostenlose Nutzer erhalten neu auch 10 Minuten pro Monat), ist davon auszugehen, dass sich die Modalitäten erweitern und wir bald nicht nur Voice, sondern auch Bild und Video nutzen können, um dem Chatbot mehr Kontext zu geben.
Da ist es dann auch nicht mehr weit hin zu einem ständigen Begleiter, der uns über die Schulter schaut und proaktiv mitarbeitet … und wenn wir diese Gedanken weiterspinnen, so kriegen wir das mulmige und gleichzeitig erwartungsvolle Gefühl, dass die Welt in ein paar Jahren ganz anders ausschauen könnte als heute.
📝 Warum du Googles NotebookLM (öfters) nutzen solltest
Nach dem ChatGPT Canvas Deep Dive müssen wir heute noch einmal auf NotebookLM zurückkommen. Ist NotebookLM der ChatGPT Moment von Google? Könnte gut sein!
Auch wenn es das Tool schon seit über einem Jahr gibt, haben wir erst jetzt so richtig zu schätzen gelernt, was damit alles möglich ist (nicht zuletzt dank des multimodalen Gemini 1.5 Pro-Modells). Wir haben viel damit experimentiert - jetzt bist du an der Reihe, hier sind unsere Tipps und Use Cases für dich.

Google wird oft als Moloch wahrgenommen, doch das NotebookLM-Team ist einen anderen Weg gegangen und entwickelt die App mit den Usern weiter. Feedback wird kontinuierlich integriert, und Produkt Managerin Raiza Martin ist genauso aktiv auf X wie Editorial Director Steve Johnson und sogar AI-Designer Jay Spiel hat seinen Account wiederbelebt.
Und weil das Team so offen ist und interagiert, wissen wir auch, dass es noch einige spannende Dinge in der Pipeline hat:
Das virale Podcast-Feature „Audio Overviews“ in anderen Sprachen ist bereits in Arbeit, aber wird noch auf Qualität getestet. Von der Idee zum Prototypen hat es ursprünglich nur wenige Wochen gedauert!
Auch weitere Optionen wie Format, Länge, Personas, Stimmen etc. sind im Gespräch.
Neue Features wie "MagicDraft" und personalisierte Chatbots (ähnlich wie die “Gems”) werden bereits ausgiebig getestet.
Benutzerspezifische Chatbots werden bei Google intern schon sehr häufig verwendet und sind massive Produktivitätsbooster.
Ein personalisierter Schreibworkflow mit Agenten kann dann aus Recherchen und Notizen deinen eigenen Standpunkt in deiner Sprache formulieren.

Preview der “MagicDraft” Funktion via @testingcatalog
Fast alles ist auch bereits auf Deutsch nutzbar!
Alle Funktionen stehen dir auf Deutsch zur Verfügung (sofern deine Google Spracheinstellung auf Deutsch ist). Einzige Ausnahme ist aktuell das virale Podcast-Feature, das zur Zeit nur englische Podcasts generieren kann.
Es gibt zwar einige findige Nutzer, die es geschafft haben, französische oder spanische Versionen zu produzieren, aber scheinbar hat Google das bereits gefixt.
Was sind die besten Use Cases für NotebookLM?
Es gibt so viele coole Möglichkeiten, wie du bereits jetzt NotebookLM in deine Arbeit und Prozesse integrieren kannst.
Riesiges Kontextfenster: Wusstest du, dass du bis zu 50 verschiedene Quellen pro Notebook haben kannst - und jede Quelle kann bis zu 500,000 Worte beinhalten = bis zu 25 Millionen (!) Worte pro Notebook.
Dein liebster Podcast *auf Englisch: Du kannst beliebige Inhalte in eine unterhaltsame Audio-Diskussion verwursteln lassen. Lade ein eBook hoch, das du schon immer lesen wolltest (oder das beste Buch zu einem beliebigen Thema). Oder verwandle die 4-Stunden-Interviews von Lex in deiner "Watch Later”-Liste in knackige Zusammenfassungen (ja, neu werden auch YouTube
VideosTranskripte und MP3/WAV-Uploads unterstützt). Pro-Tipp: gib den beiden AI-Hosts Anweisungen, auf was sie eingehen sollen.Podcasts für unterwegs: Du kannst zwar die NotebookLM-Webseite im Browser öffnen, aber wenn du die Audio Overviews im Hintergrund hören möchtest, lädst du sie am besten herunter oder nutzt eine App wie solopod.net, mit der du dann deinen persönlichen RSS-Feed bei Spotify und Konsorten so anschnallen kannst.
Video-Podcast erstellen: Du kannst die Audio-Datei auch als Basis für ein Video nutzen, und dieses mit deinem Avatar (bspw. HeyGen) animieren.
Studieren und Lernen mit AI: Aus PDFs, Notizen oder Vorlesungen (Audio) lassen sich alle möglichen Studienleitfäden erstellen und Erkenntnisse aus verschiedenen Quellen ziehen. Auch wissenschaftliches Material und akademische Texte lassen sich damit einfacher zugänglich machen.
Archiv von allem, was für dich relevant ist: Du kannst alles, was für dich relevant ist, in ein Google Doc “feeden” (bspw. mit einer Browser-Erweiterung, die du mit ChatGPT Canvas erstellst, oder mit ReadWise, oder …) - und dieses an ein Notebook anhängen. Es aktualisiert sich dann automatisch!
Meeting Zusammenfassung und mehr: Du kannst auch ein Transkript oder eine Audiodatei hochladen (wir lieben tl;dv!) und dazu Fragen stellen/Feedback einholen. Anstelle eines Protokolls oder Management Summaries schickst du deinen Vorgesetzten das nächste Mal einfach einen Audio Overview 😁.

P.S.: Sam Altman ist ein Fan, Andrej Karpathy hat 10 Podcast Episoden unter dem Motto “Histories of Mysteries” aufgenommen und Heygen CEO Joshua Xi hat das Audio mit seinen neuen Avataren kombiniert. Und was sind deine Ideen?
📸 Black Mirror-Realität: Wie Ray-Ban Smart Glasses dich mit einem Blick digital durchleuchten können
Stell dir vor, du gehst durch die Stadt, und jemand scannt dein Gesicht, um in Sekundenschnelle deinen Namen, Social Media Profile, Telefonnummer und sogar die Adresse deiner Eltern zu erfahren.
Ehm, das könnte dir theoretisch passieren. Willkommen in der schönen neuen Welt, powered by Meta Ray-Ban Smart Glasses und dem ominösen „I-XRAY“-Tool, das von zwei Harvard-Studenten entwickelt wurde.
Ein Blick genügt - so funktioniert es
Die Harvard-Studenten AnhPhu Nguyen und Caine Ardayfio haben in einer Demo gezeigt, wie man mit frei verfügbaren Tools wie PimEyes und unseren geliebten Ray-Ban Meta Smart Glasses in Sekundenschnelle detaillierte Informationen über Fremde ausspähen kann.
Die Brille nimmt einfach ein Live-Video auf, das gestreamt wird und mit einer Gesichtserkennungssoftware gekoppelt ist. Diese sucht in öffentlichen Datenbanken nach Bildern, Namen und sogar nach deiner Adresse, und meldet es zurück an den Nutzer. Alles voll automatisiert, versteht sich.
Die beiden Entwickler betonen, dass sie das Tool nur entwickelt haben, um das öffentliche Bewusstsein zu schaffen – sie planen keine Veröffentlichung und teilen auch Tipps, wie du dich aus solchen Datenbanken austragen kannst.
Aber ganz ehrlich: vermutlich wird es diese Woche noch eine Copycat-App auf Github zu finden geben. We’ll keep you posted …
Geschafft! Aber kein Grund zum Traurigsein. Die AInauten sind schon bald wieder zurück, mit neuem Futter für dich.
Reto & Fabian von den AInauten
P.S.: Folge uns auf den sozialen Medien - das motiviert uns, Gas zu geben 😁! Twitter, LinkedIn, Facebook, Insta, YouTube, TikTok
AINAUTEN PREMIUM & AI-CRASHKURS BUNDLE
Mit über 100 Videos lernst du, AI wirklich anzuwenden – und das im Turbo-Modus! Von Prompts über Bilder & Videos bis hin zu AI im Office – wir tauchen tief in die Themen aus dem Newsletter ein. Plus jede Woche: neues Praxis-Video mit Tool-Tipps, Prompt-Vorlagen und mehr. ❓ Fragen? Kein Problem – du hast direkten Zugang zu uns!



