Mit Nano Banana 2 präsentiert Google eine neue Generation seines Bildmodells, das Pro-Fähigkeiten mit extrem hoher Geschwindigkeit verbindet. Die Weiterentwicklung der Nano-Banana-Reihe basiert auf Gemini 3.1 Flash Image und soll visuelle Qualität, präzise Steuerung und erweiterte Weltkenntnis in einem schnellen Modell vereinen. Nutzer profitieren von Funktionen, die bislang der Pro-Version vorbehalten waren, ohne deren längere Generationsdauer.
Höhere Geschwindigkeit, bessere Bildqualität
Nano Banana 2 kombiniert die Rechenleistung des Flash-Modells mit erweiterten Fähigkeiten in Textdarstellung, visuellem Wissen und Bildgenauigkeit. Das Modell greift auf Echtzeitinformationen und Webbilder zurück, um Motive detailgetreuer abzubilden. Es erzeugt exakte Texte für Mockups oder Werbematerialien und erlaubt Übersetzungen direkt innerhalb eines Bildes. Auch Infografiken, Diagramme und visuelle Datenaufbereitungen lassen sich präziser und schneller erstellen.
Gewinnen in der Plattform-Ökonomie
Verbesserte kreative Kontrolle und Konsistenz
Das Modell bietet stabile Charakterdarstellung für bis zu fünf Figuren sowie konsistente Wiedergabe von bis zu 14 Objekten. Damit wird Storyboarding oder der Aufbau wiederkehrender Szenen einfacher. Verbesserung der Befehlsausführung sorgt dafür, dass komplexe Anforderungen verlässlicher umgesetzt werden. Dank nativer Unterstützung unterschiedlichster Seitenverhältnisse und Auflösungen von 512 Pixel bis 4K können sowohl Social-Media-Formate als auch großflächige Hintergründe produziert werden. Licht, Texturen und Details wurden sichtbar aufgewertet.
Verfügbarkeit in Google-Produkten
Nano Banana 2 ersetzt die Pro-Version in der Gemini-App innerhalb der Fast-, Thinking- und Pro-Modelle. Abonnenten von Google AI Pro und Ultra behalten aber Zugriff auf die ursprüngliche Nano Banana Pro-Variante. Darüber hinaus wird Nano Banana 2 in Google Search, Lens, AI Studio, Vertex AI, Flow sowie Google Ads eingeführt und steht damit einer breiten Entwickler- und Nutzerbasis zur Verfügung. Flow-User können es ohne Credits verwenden.
Fortschritte bei Herkunftsnachweisen
Google erweitert parallel seine Maßnahmen zur Kennzeichnung generativer Medien. SynthID-Wasserzeichen und C2PA-Content-Credentials sollen künftig noch klarer anzeigen, ob und wie KI bei der Erstellung eingesetzt wurde. Seit Einführung der Verifikationsfunktion im November wurde sie bereits über 20 Millionen Mal genutzt.
Neue Möglichkeiten für Entwickler
In AI Studio und per Gemini API lassen sich Anwendungen bauen, die von realitätsnahen Darstellungen, lokalisierbaren Texten oder erweiterter Kontextverarbeitung profitieren. Beispiel-Apps wie „Window Seat“ demonstrieren die Nutzung realer Webbilder und Wetterdaten, während der „Global Ad Localizer“ zeigt, wie Bild- und Textübersetzungen nahtlos ineinandergreifen. Entwickler können zudem Denkstufen konfigurieren, um komplexere Prompts besser umzusetzen.


