Google wprowadza istotną zmianę w sposobie korzystania ze sztucznej inteligencji na smartfonach z Androidem. Gemini może teraz działać w trybie podzielonego ekranu, obok innych aplikacji. Oznacza to, że użytkownik nie musi już wychodzić z maila, przeglądarki czy komunikatora, by skorzystać z pomocy AI. Asystent pojawia się w osobnym panelu i działa w kontekście tego, co aktualnie widzimy na ekranie. To krok w stronę bardziej „wtopionej” w system sztucznej inteligencji, która wspiera pracę w czasie rzeczywistym, zamiast funkcjonować jako osobna aplikacja.
AI przestaje być osobnym oknem
Do tej pory korzystanie z asystentów AI na telefonie wyglądało podobnie: otwierasz czat, wpisujesz polecenie, kopiujesz wynik i wracasz do swojej aplikacji. Nowe rozwiązanie Google zmienia ten schemat.
Gemini może teraz działać równolegle z inną aplikacją w trybie split-screen. W praktyce oznacza to:
pomoc w redagowaniu e-maili i wiadomości w czasie rzeczywistym,
podsumowywanie artykułów bez zamykania przeglądarki,
generowanie odpowiedzi w komunikatorach na podstawie widocznej rozmowy,
szybkie dopracowywanie tekstów bez kopiowania ich do osobnego okna.
AI staje się częścią przepływu pracy, a nie dodatkiem uruchamianym „obok”.
Mniej przełączania, więcej produktywności
Największą zmianą jest ograniczenie tzw. „context switching”. Użytkownik nie musi już kopiować treści do osobnej aplikacji AI i wracać z wygenerowanym tekstem. Gemini analizuje to, co aktualnie znajduje się na ekranie, i reaguje bez przerywania pracy.
To szczególnie przydatne dla:
studentów pracujących nad materiałami źródłowymi,
osób zawodowo piszących maile i raporty,
użytkowników analizujących długie dokumenty,
każdego, kto chce szybciej odpowiadać na wiadomości.
Choć na pierwszy rzut oka zmiana wydaje się niewielka, w codziennym użytkowaniu może znacząco przyspieszyć wykonywanie rutynowych zadań.
Nowy kierunek w projektowaniu mobilnej AI
Ruch Google wpisuje się w szerszy trend. Firmy technologiczne coraz częściej przestają traktować sztuczną inteligencję jako osobny produkt, a zaczynają budować ją bezpośrednio w systemie operacyjnym. Microsoft eksperymentuje z AI w aplikacjach Windows, Apple rozwija własne rozwiązania w iOS, a Google już teraz pokazuje jeden z najbardziej zaawansowanych przykładów kontekstowej integracji AI w Androidzie.
Split-screen z Gemini to dopiero początek. W przyszłości deweloperzy mogą udostępniać bardziej rozbudowane integracje, dzięki którym asystent będzie jeszcze lepiej rozumiał dane w konkretnych aplikacjach.
Funkcja jest obecnie wdrażana stopniowo i nie wszystkie urządzenia oraz aplikacje ją obsługują. Jednak kierunek jest jasny – AI ma działać w tle i pomagać w czasie rzeczywistym, zamiast czekać na polecenie w osobnym oknie. Jeśli ten model się przyjmie, smartfon przestanie być zbiorem aplikacji, a stanie się środowiskiem pracy wspieranym przez inteligentnego, kontekstowego asystenta. A to może być jedna z ważniejszych zmian w mobilnym świecie AI w najbliższych latach.
źródło: digitaltrends.com
Katarzyna Petru












