Google er begyndt at udrulle nye funktioner til sin AI-assistent, Gemini, som muliggør interaktion i realtid gennem live video og skærmdeling. Disse fremskridt, drevet af Project Astra, giver brugerne mulighed for at engagere sig mere intuitivt med deres enheder, hvilket markerer et væsentligt skridt fremad inden for AI-assisteret teknologi.
Med den nye live video-funktion kan brugere bruge deres smartphone-kameraer til at engagere sig i real-time visuelle interaktioner med Gemini. For eksempel kan en bruger vise Gemini et live-feed af deres omgivelser og stille spørgsmål eller søge hjælp baseret på, hvad AI observerer. Denne evne forbedrer Geminis anvendelighed til at give kontekstuel support og information.
Skærmdelingsfunktionen giver brugerne mulighed for at dele deres enheds skærm med Gemini, hvilket gør det muligt for AI at analysere og give indsigt i det viste indhold. Denne funktionalitet er især nyttig til opgaver såsom at navigere i komplekse applikationer, fejlfinde problemer eller søge anbefalinger baseret på oplysninger på skærmen.
Disse funktioner er en del af Googles Project Astra-initiativ, som har til formål at forbedre AI's evne til at forstå og interagere med den virkelige verden i realtid. Ved at integrere Astras muligheder kan Gemini nu behandle visuelle input mere effektivt, hvilket giver brugerne en mere fordybende og interaktiv oplevelse.
Foreslået læsning:Google lancerer AI-drevne mødenotater til Google Meet
De nye funktioner udrulles i øjeblikket til Gemini Advanced-abonnenter som en del af Google One AI Premium-planen. Brugere har rapporteret udseendet af disse funktioner på deres enheder, hvilket indikerer en gradvis implementering.
Googles introduktion af disse funktioner placerer Gemini foran i det konkurrenceprægede landskab af AI-assistenter. Mens andre teknologigiganter som Amazon og Apple udvikler lignende muligheder, tilbyder Geminis video- og skærmdelingsfunktioner i realtid brugerne en mere dynamisk og responsiv AI-oplevelse.
Tidlige brugere har delt positiv feedback om de nye funktioner. For eksempel en Reddit-brugerdemonstreretGeminis evne til at læse og fortolke indhold på skærmen, der viser de praktiske anvendelser af skærmdeling. Efterhånden som disse funktioner bliver mere udbredt tilgængelige, forventes de at transformere, hvordan brugere interagerer med deres enheder, hvilket gør AI-assistance mere kontekstbevidst og integreret i daglige opgaver.
Kilde:Randen
