Google geht mit einer neuen Funktion in der Suche einen Schritt weiter: Ab sofort testet das Unternehmen sogenannte „Audio Overviews“, mit denen bestimmte Suchanfragen als gesprochene Zusammenfassungen beantwortet werden. Nutzer erhalten so eine freihändige Möglichkeit, sich Inhalte auditiv erklären zu lassen – etwa beim Multitasking oder wenn eine visuelle Nutzung nicht möglich ist.
Testphase im Rahmen von Google Labs
Die neue Funktion ist laut einem Blogbeitrag zunächst über das Google-Labs-Programm verfügbar. Erkennt das System bei einer Suchanfrage einen potenziellen Mehrwert durch eine Audio-Zusammenfassung, erscheint die Option automatisch. Die Umsetzung basiert auf Googles aktuellen Gemini-Sprachmodellen, die bereits in anderen Produkten wie NotebookLM im Einsatz sind.
Gewinnen in der Plattform-Ökonomie
Funktionen und Nutzerinteraktion
Die Audio Overviews lassen sich über einen integrierten Player steuern, der Funktionen wie Wiedergabe, Pause, Lautstärkeanpassung und variable Abspielgeschwindigkeit bietet. Zudem sind weiterführende Links integriert, die die Quellen der gesprochenen Inhalte transparent machen. So können Nutzer bei Interesse tiefer in ein Thema einsteigen. Ein Bewertungssystem mit Daumen hoch oder runter rundet das Feedbacksystem ab.
Erweiterung bestehender KI-Angebote
Google baut damit auf bestehenden KI-Funktionen wie den AI Overviews auf, die bereits für textbasierte Suchergebnisse genutzt werden. Die Audio-Erweiterung richtet sich insbesondere an auditiv lernende Personen oder Nutzer mit eingeschränktem Zugang zu Bildschirmen. Auch in NotebookLM – Googles KI-gestütztem Recherche-Tool – wurde die Technologie bereits erfolgreich implementiert. Dort lassen sich Audiozusammenfassungen sogar als KI-generierte Podcasts nutzen.