• AInauten
  • Posts
  • đŸ€ Produktiver sein mit diesen zwei neuen Assistenten

đŸ€ Produktiver sein mit diesen zwei neuen Assistenten

PLUS: "Black Mirror-Brille" erkennt dich mit einem Blick ...

Diese Ausgabe wird dir von HubSpot prÀsentiert.

AI-HOI AInauten,

Willkommen zur neuen Ausgabe deines Lieblingsnewsletters - heute mit mehr Praxis-Tiefgang zu zwei der wichtigsten Flaggschiff-Produkte von OpenAI und Google, und einer weiteren Black-Mirror-Episode, die zur RealitĂ€t wurde 👓 


Das haben wir fĂŒr dich im GepĂ€ck:

Und falls du die spannendsten Quick News verpasst hast, einfach in der Weekend-Ausgabe nachlesen. Los geht’s!

P.S.: Mehr Videos und Tipps von uns gibt es ĂŒbrigens hier bei AInauten-Premium.

đŸ€ ChatGPT Canvas - dein neuer Assistent im Praxis-Test

OpenAI will weniger mit Drama in den News landen, sondern mit Progress. Gerade wurde die neue BenutzeroberflĂ€che Canvas veröffentlicht - das erste große Update seit seiner EinfĂŒhrung vor zwei Jahren! Damit wird die Interaktion mit ChatGPT um einiges effizienter, zielfĂŒhrender und kollaborativer.

Wann und wie kannst du ChatGPT Canvas nutzen?

Viele vergleichen Canvas mit Claude Artifacts von Anthropic und NotebookLM von Google, aber eigentlich haben diese Tools alle ihre eigenen, speziellen StÀrken.

ChatGPT Canvas bietet einen kollaborativen Arbeitsbereich, der sich perfekt zum Programmieren und Schreiben eignet, Claude Artifacts zeichnet sich durch kreative Erstellung von Apps aus, und NotebookLM glĂ€nzt bei der Verwaltung großer Informationsmengen.

Voraussetzung ist aktuell ein kostenpflichtiger ChatGPT Plus oder Team-Account, nach der Beta-Phase soll es auch kostenlosen Nutzern zur VerfĂŒgung stehen. Zurzeit ist es auch nur via Web verfĂŒgbar und noch nicht via Mobile und Desktop App.

Die Nutzung selbst ist straight-forward: Einfach "GPT-4o mit Canvas" im Modell-Selektor auswĂ€hlen, und los geht’s!

Was kann das neue ChatGPT Canvas Feature?

Es ist ein offener Arbeitsbereich, mit kontextabhÀngigem User Interface und detaillierter Iterationsmöglichkeit. Konkret bedeutet das:

  • Du hast ein separates Bearbeitungsfenster neben dem Chat-Interface

  • Du kannst Text und Code direkt bearbeiten und verfeinern

  • Du erhĂ€ltst kontextbezogene VorschlĂ€ge und Feedback von ChatGPT

Beim Schreiben von Texten kannst du die LĂ€nge und das Leseniveau ganz einfach anpassen, und abschließend auf Grammatik, Klarheit und Konsistenz prĂŒfen lassen. Und, Achtung, darauf hat die Welt gewartet: Du kannst mit einem Klick Emojis hinzufĂŒgen! 😁

Canvas ist also perfekt fĂŒr das Schreiben von allen möglichen Inhalten - du wirst vielleicht bald mehr Zeit in ChatGPT verbringen als in Word oder Google Docs.

Super praktisch ist auch die Möglichkeit, einzelne Schritte wieder rĂŒckgĂ€ngig zu machen und Shortcuts zu nutzen. Bisher musste man den gesamten Output immer wieder komplett generieren lassen, um zu verfeinern, was der Chatbot ausspuckte.

Laien Programmierer (oder solche die es werden wollen), werden die Coding-Features zu schĂ€tzen wissen: Review des Codes, Kommentare direkt hinzufĂŒgen lassen, Debugging und sogar Konvertierung zwischen verschiedenen Programmiersprachen! Du kannst Code aller Art generieren lassen, von der Browser-Erweiterung bis zu Replit.

Claude hat definitiv mit dem Release der “Artifacts” ein neues Kapitel geschrieben, von dem ChatGPT sich hier hat inspirieren lassen. Mit Claude kannst du deine App entwickeln, direkt im Browser nutzen und sogar mit anderen teilen. So weit geht ChatGPT aktuell noch nicht, es lĂ€sst sich lediglich der Code erstellen und editieren.

Im Gegensatz zu Claude hat ChatGPT Canvas auch Zugang zum Internet - eine echte Bereicherung. Aber Achtung: “Prompt Injections” sind damit theoretisch möglich


Pliny, seines Zeichens “Latent Space Liberator”, hat bereits das System Prompt herausgekitzelt - und auch du kannst das selbst mit einem einfachen Prompt nachvollziehen. Warum du das tun solltest? Weil es super spannend ist, in die “geheimen” Instruktionen reinzuschauen, die das Verhalten des Modells steuern.

What’s next? Agenten und multimodale AI, always on 


Was als nĂ€chstes kommt, darĂŒber schweigt sich OpenAI noch aus. Aber wir schauen gerne mal in die Glaskugel und spinnen ein paar Ideen weiter.

via Giphy

Es scheint gesichert, dass uns nĂ€chstes Jahr Agenten erwarten. Und das wird ein echter Paradigmenwechsel werden! Diese Helferlein werden in der Lage sein, selbststĂ€ndig Aufgaben fĂŒr dich zu erledigen. Bis es soweit ist, werden wir im Laufschritt Schritt fĂŒr Schritt von OpenAI und Co. an diese neue Welt herangefĂŒhrt.

Nachdem wir seit kurzem auch den Advanced Voice Mode zur VerfĂŒgung haben (kostenlose Nutzer erhalten neu auch 10 Minuten pro Monat), ist davon auszugehen, dass sich die ModalitĂ€ten erweitern und wir bald nicht nur Voice, sondern auch Bild und Video nutzen können, um dem Chatbot mehr Kontext zu geben.

Da ist es dann auch nicht mehr weit hin zu einem stĂ€ndigen Begleiter, der uns ĂŒber die Schulter schaut und proaktiv mitarbeitet 
 und wenn wir diese Gedanken weiterspinnen, so kriegen wir das mulmige und gleichzeitig erwartungsvolle GefĂŒhl, dass die Welt in ein paar Jahren ganz anders ausschauen könnte als heute.

📝 Warum du Googles NotebookLM (öfters) nutzen solltest

Nach dem ChatGPT Canvas Deep Dive mĂŒssen wir heute noch einmal auf NotebookLM zurĂŒckkommen. Ist NotebookLM der ChatGPT Moment von Google? Könnte gut sein!

Auch wenn es das Tool schon seit ĂŒber einem Jahr gibt, haben wir erst jetzt so richtig zu schĂ€tzen gelernt, was damit alles möglich ist (nicht zuletzt dank des multimodalen Gemini 1.5 Pro-Modells). Wir haben viel damit experimentiert - jetzt bist du an der Reihe, hier sind unsere Tipps und Use Cases fĂŒr dich.

Warum NotebookLM viral geht und welche Features als nÀchstes kommen

Google wird oft als Moloch wahrgenommen, doch das NotebookLM-Team ist einen anderen Weg gegangen und entwickelt die App mit den Usern weiter. Feedback wird kontinuierlich integriert, und Produkt Managerin Raiza Martin ist genauso aktiv auf X wie Editorial Director Steve Johnson und sogar AI-Designer Jay Spiel hat seinen Account wiederbelebt.

Und weil das Team so offen ist und interagiert, wissen wir auch, dass es noch einige spannende Dinge in der Pipeline hat:

  • Das virale Podcast-Feature „Audio Overviews“ in anderen Sprachen ist bereits in Arbeit, aber wird noch auf QualitĂ€t getestet. Von der Idee zum Prototypen hat es ursprĂŒnglich nur wenige Wochen gedauert!

  • Auch weitere Optionen wie Format, LĂ€nge, Personas, Stimmen etc. sind im GesprĂ€ch.

  • Neue Features wie "MagicDraft" und personalisierte Chatbots (Ă€hnlich wie die “Gems”) werden bereits ausgiebig getestet.

  • Benutzerspezifische Chatbots werden bei Google intern schon sehr hĂ€ufig verwendet und sind massive ProduktivitĂ€tsbooster.

  • Ein personalisierter Schreibworkflow mit Agenten kann dann aus Recherchen und Notizen deinen eigenen Standpunkt in deiner Sprache formulieren.

Preview der “MagicDraft” Funktion via @testingcatalog

Fast alles ist auch bereits auf Deutsch nutzbar!

Alle Funktionen stehen dir auf Deutsch zur VerfĂŒgung (sofern deine Google Spracheinstellung auf Deutsch ist). Einzige Ausnahme ist aktuell das virale Podcast-Feature, das zur Zeit nur englische Podcasts generieren kann.

Es gibt zwar einige findige Nutzer, die es geschafft haben, französische oder spanische Versionen zu produzieren, aber scheinbar hat Google das bereits gefixt.

Was sind die besten Use Cases fĂŒr NotebookLM?

Es gibt so viele coole Möglichkeiten, wie du bereits jetzt NotebookLM in deine Arbeit und Prozesse integrieren kannst.

  • Riesiges Kontextfenster: Wusstest du, dass du bis zu 50 verschiedene Quellen pro Notebook haben kannst - und jede Quelle kann bis zu 500,000 Worte beinhalten = bis zu 25 Millionen (!) Worte pro Notebook.

  • Dein liebster Podcast *auf Englisch: Du kannst beliebige Inhalte in eine unterhaltsame Audio-Diskussion verwursteln lassen. Lade ein eBook hoch, das du schon immer lesen wolltest (oder das beste Buch zu einem beliebigen Thema). Oder verwandle die 4-Stunden-Interviews von Lex in deiner "Watch Later”-Liste in knackige Zusammenfassungen (ja, neu werden auch YouTube Videos Transkripte und MP3/WAV-Uploads unterstĂŒtzt). Pro-Tipp: gib den beiden AI-Hosts Anweisungen, auf was sie eingehen sollen.

  • Podcasts fĂŒr unterwegs: Du kannst zwar die NotebookLM-Webseite im Browser öffnen, aber wenn du die Audio Overviews im Hintergrund hören möchtest, lĂ€dst du sie am besten herunter oder nutzt eine App wie solopod.net, mit der du dann deinen persönlichen RSS-Feed bei Spotify und Konsorten so anschnallen kannst.

  • Video-Podcast erstellen: Du kannst die Audio-Datei auch als Basis fĂŒr ein Video nutzen, und dieses mit deinem Avatar (bspw. HeyGen) animieren.

  • Studieren und Lernen mit AI: Aus PDFs, Notizen oder Vorlesungen (Audio) lassen sich alle möglichen StudienleitfĂ€den erstellen und Erkenntnisse aus verschiedenen Quellen ziehen. Auch wissenschaftliches Material und akademische Texte lassen sich damit einfacher zugĂ€nglich machen.

  • Archiv von allem, was fĂŒr dich relevant ist: Du kannst alles, was fĂŒr dich relevant ist, in ein Google Doc “feeden” (bspw. mit einer Browser-Erweiterung, die du mit ChatGPT Canvas erstellst, oder mit ReadWise, oder 
) - und dieses an ein Notebook anhĂ€ngen. Es aktualisiert sich dann automatisch!

  • Meeting Zusammenfassung und mehr: Du kannst auch ein Transkript oder eine Audiodatei hochladen (wir lieben tl;dv!) und dazu Fragen stellen/Feedback einholen. Anstelle eines Protokolls oder Management Summaries schickst du deinen Vorgesetzten das nĂ€chste Mal einfach einen Audio Overview đŸ˜.

P.S.: Sam Altman ist ein Fan, Andrej Karpathy hat 10 Podcast Episoden unter dem Motto “Histories of Mysteries” aufgenommen und Heygen CEO Joshua Xi hat das Audio mit seinen neuen Avataren kombiniert. Und was sind deine Ideen?

📾 Black Mirror-RealitĂ€t: Wie Ray-Ban Smart Glasses dich mit einem Blick digital durchleuchten können

Stell dir vor, du gehst durch die Stadt, und jemand scannt dein Gesicht, um in Sekundenschnelle deinen Namen, Social Media Profile, Telefonnummer und sogar die Adresse deiner Eltern zu erfahren.

Ehm, das könnte dir theoretisch passieren. Willkommen in der schönen neuen Welt, powered by Meta Ray-Ban Smart Glasses und dem ominösen „I-XRAY“-Tool, das von zwei Harvard-Studenten entwickelt wurde.

Ein Blick genĂŒgt - so funktioniert es

Die Harvard-Studenten AnhPhu Nguyen und Caine Ardayfio haben in einer Demo gezeigt, wie man mit frei verfĂŒgbaren Tools wie PimEyes und unseren geliebten Ray-Ban Meta Smart Glasses in Sekundenschnelle detaillierte Informationen ĂŒber Fremde ausspĂ€hen kann.

Die Brille nimmt einfach ein Live-Video auf, das gestreamt wird und mit einer Gesichtserkennungssoftware gekoppelt ist. Diese sucht in öffentlichen Datenbanken nach Bildern, Namen und sogar nach deiner Adresse, und meldet es zurĂŒck an den Nutzer. Alles voll automatisiert, versteht sich.

Die beiden Entwickler betonen, dass sie das Tool nur entwickelt haben, um das öffentliche Bewusstsein zu schaffen – sie planen keine Veröffentlichung und teilen auch Tipps, wie du dich aus solchen Datenbanken austragen kannst.

Aber ganz ehrlich: vermutlich wird es diese Woche noch eine Copycat-App auf Github zu finden geben. We’ll keep you posted 


Geschafft! Aber kein Grund zum Traurigsein. Die AInauten sind schon bald wieder zurĂŒck, mit neuem Futter fĂŒr dich.

Reto & Fabian von den AInauten

P.S.: Folge uns auf den sozialen Medien - das motiviert uns, Gas zu geben 😁! Twitter, LinkedIn, Facebook, Insta, YouTube, TikTok

AINAUTEN PREMIUM & AI-CRASHKURS BUNDLE

Mit ĂŒber 100 Videos lernst du, AI wirklich anzuwenden – und das im Turbo-Modus! Von Prompts ĂŒber Bilder & Videos bis hin zu AI im Office – wir tauchen tief in die Themen aus dem Newsletter ein. Plus jede Woche: neues Praxis-Video mit Tool-Tipps, Prompt-Vorlagen und mehr. ❓ Fragen? Kein Problem – du hast direkten Zugang zu uns!

⭐ Wie hat dir diese Ausgabe gefallen?

Login oder Abonnieren um an umfragen teilzunehmen.

Reply

or to participate.