Googles AI dök upp i allt från XR-glasögon till ett kraftfullt nytt generativt videoverktyg som heter Flow.

Årets Google I/O-utvecklarkonferens var fullspäckad med AI. Google visade upp de senaste uppdateringarna till sin Gemini AI-plattform och debuterade sin dyra nya AI Ultra-prenumerationsplan (spoiler: det är 2,393 SEK per månad).
Google introducerade också sin nya Flow-app som utökar sin verktygsuppsättning för videogenerering och avslutade presentationen med en demo av sina nya Android XR-glasögon.
Företaget var också stolta över att meddela att AI-användning och prestanda har ökat. (Med tanke på att en ny 42,5-exaflop Ironwood Tensor-processor kommer till Google Cloud senare i år, kommer de att fortsätta att öka.)
För en play-by-play sammanfattning av händelsen, kolla in vår livebloggbevakning av Google I/O.

Den 13 maj höll Google ett separat event för Android, där det lanserade Android 16, med debut av sitt nya Material 3 Expressive-gränssnitt, uppdateringar av säkerhet och en uppdatering om Gemini-integrering och funktioner.
Många av de nya AI-funktionerna är bara tillgängliga via en av dess prenumerationsnivåer. AI Pro är bara en omprofilering av Googles 191 SEK per-månad Gemini Advanced-plan (lägger till några nya funktioner), men Google AI Ultra är ett dyrare nytt alternativ – 2,393 SEK per månad, med halva rabatten de första tre månaderna för tillfället – som ger tillgång till det senaste, snyggaste och minst användningsbegränsade av alla dess verktyg och modeller, såväl som hantering av 3 prototyper av AI-agenter och lagringsutrymme för dig. kommer behöva lagra allt. De är båda tillgängliga idag.
Google vill också få din automatisering att låta smartare med personliga smarta svar, vilket gör att dina genererade svar låter mer som dig, samt att plöja igenom informationsbitar på din enhet för att ge relevant information. Det kommer att finnas i Gmail i sommar för prenumeranter. Så småningom kommer det att finnas överallt.
En av Googles skryt var Geminis seger i Pokemon Blue. Personalskribenten Zach McAuliffe har frågor, för man bråkar INTE med hans barndomsminnen.

Dessutom innehåller den massor av bättre modeller, bättre kodningsverktyg och andra detaljer om utvecklarvänliga saker du förväntar dig av en utvecklarkonferens. Tillkännagivandet inkluderade dess konversationsgemini Live, tidigare en del av Project Astra, dess interaktiva, agent, röst AI, köksvask AI-app. (Som chefredaktör Patrick Holland säger: ”Astra är en repetition av funktioner som, när de är redo för rampljuset, läggs till i Gemini Live.”) Och för forskare, inkluderar NotebookLM Gemini Live för att förbättra allt.
Den är tillgänglig nu i USA.
Chrome AI-läge
Människor (det vill säga de över 18) som ponnyar för prenumerationerna, plus personer på Chrome Beta-, Dev- och Canary-banorna, kommer att kunna prova företagets utökade Gemini-integration med Chrome — sammanfattning, forskning och agentchatt baserad på innehållet på din skärm, ungefär som Gemini Live gör för telefoner (som för övrigt är tillgängligt gratis på Android idag). Men Chrome-versionen är mer lämpad för den typ av saker du gör vid en dator snarare än en telefon. (Microsoft gör redan detta med Copilot i sin egen Edge-webbläsare.)
Så småningom planerar Google att Gemini i Chrome ska kunna syntetisera med hjälp av flera flikar och röstnavigering.
Företaget utökar också hur du kan interagera med dess AI-översikter i Google Sök som en del av AI-läge, med interaktioner med AI-översikter och mer agent shoppinghjälp. Det är en ny flik med sök, eller på sökfältet, och den är tillgänglig nu. Det inkluderar djupare sökningar, personlig kontext – som använder all information den vet om dig, och det är mycket – för att ge förslag och anpassa svar.

Företaget detaljerade sitt nya AI Mode för shopping, som har en förbättrad konversationsköpupplevelse, en kassa som övervakar för bästa prissättning och ett uppdaterat ”prova på”-gränssnitt som låter dig ladda upp ett foto av dig själv istället för att modellera det på en generisk kropp.
Vi har reservationer mot funktionen — det låter som en integritetsmardröm, för en sak, och jag vill egentligen inte se kläder på den ”riktiga” mig för en annan.
Google planerar att lansera det snart, även om den uppdaterade ”prova på”-funktionen nu är tillgänglig i USA via Search Labs.
Google Beam
Google Beam, tidigare känt som Project Starline, är den uppdaterade versionen av företagets 3D-videokonferenser, nu med AI. Den använder en array med sex kameror för att fånga alla vinklar på dig, som AI:n sedan syr ihop, använder huvudspårning för att följa dina rörelser och skickar med upp till 60 bilder per sekund.
Plattformen använder en ljusfältsskärm som inte kräver att man bär någon speciell utrustning, men den tekniken tenderar också att vara känslig för vinkelbetraktning. HP är en gammal hand inom storskalig skanning, inklusive 3D-skanning, så samarbetet med Google är ingen stor överraskning.

Flöde och andra generativa kreativa verktyg
Google Flow är ett nytt verktyg som bygger på Imagen 4 och Veo 3 för att utföra uppgifter som att skapa AI-videoklipp och sammanfoga dem till längre sekvenser, eller utöka dem, med en enda uppmaning samtidigt som de håller dem konsekventa från scen till scen. Det tillhandahåller också redigeringsverktyg som kamerakontroller. Den är tillgänglig som en del av Gemini AI Ultra.
Imagen 4-bildgenereringen är mer detaljerad, med förbättrad tonalitet och bättre text och typografi. Och det är snabbare. Samtidigt har Veo 3, även tillgänglig idag, en bättre förståelse för fysik och inbyggd ljudgenerering – ljudeffekter, bakgrundsljud och dialog.
Allt detta är tillgängligt under AI Pro-planen. Googles Synth ID gen AI-detektionsverktyg är också tillgängligt idag.
