Blog Analityczny. Narzędzia. Techniki. Rozwiązania Analityczne.

Google I/O 2025. A może już Google AI 2025? Relacja z cyklicznej konferencji Google.

| Google IO 2025 | Gemini | AI dla Analityka | Przeczytasz w 9 min.

Konferencje, takich gigantów jak Microsoft czy Google, w ostatnim czasie są zdominowane przez tematykę AI, a w szczególności przez nowe modele językowe, ich poszerzone możliwości w kolejnych wersjach, a także kolejne integracje klasycznych usług z komponentami AI.

Z jednej strony jest to fascynujące, gdyż możemy obserwować jak AI z generacji prostych treści czy obrazków, zaczyna generować pełne aplikacje, profesjonalne filmy dźwiękowe, czy też przeobrażenie się AI w agenta, realizującego kompleksowe zadania, składające się z różnych wątków np. zakup biletu do teatru.

Z drugiej jednak strony, te konferencje zaczynają być zwyczajnie nudne, zaskoczenie jest minimalne, a nowości to właściwie kolejne iteracje produktu jakim jest AI.

Nim jednak powiemy “jak żyć”, to sprawdźmy wpierw wszystkie nowości, które pokazało Google podczas ostatniej konferencji I/O 2025. Być może coś nas jednak zaskoczy in plus.

Uwagi techniczne:

⇒ Nowości podzieliłem na bloki tematyczne

⇒ Wybrane zostały nowości, które dotyczą danych lub są interesujące z punktu widzenia analityka (dość szerokie kryterium).

Zacznijmy zatem przegląd nowości ….

1. Ewolucja wyszukiwania: poznajmy AI Mode

Google Search, czyli podstawowa usługa Google, przechodzi obecnie głęboką transformację z uwagi na rozwój AI, a także w odpowiedzi na działania konkurentów, czyli wyszukiwarek opartych o duże modele językowe (perplexity.ai, ChatGPT Search). Dla analityków oznacza to nowe źródła generujące ruch do serwisu, a także konieczność zrozumienia charakterystyki tych źródeł i motywacji użytkowników tzn. jak wyszukują, czy i kiedy decydują się na kliknięcie w link prowadzący do źródła, jak taki link zidentyfikować w modelu atrybucji.

Najważniejsze nowości w tej grupie to:

1.1. AI Mode w Google Search

  • Czym jest? Zamiast tradycyjnej listy linków, użytkownicy mogą otrzymywać bezpośrednie, rozbudowane odpowiedzi i podsumowania stworzone przez AI na podstawie informacji z internetu (podobnie jak mamy to w perplexity.ai).
  • Interaktywność: Tryb ten pozwala na zadawanie pytań uzupełniających, czyli prowadzenie konwersacji z AI w celu doprecyzowania informacji lub zgłębienia różnych aspektów danego zagadnienia.
  • Multimodalność: Umożliwia zadawanie pytań nie tylko za pomocą tekstu, ale również głosu czy obrazów (np. przez Obiektyw Google).
  • Głębsze badanie tematów: AI może pomóc w organizacji informacji, prezentując je w przystępny sposób i sugerując powiązane tematy do dalszej eksploracji.
  • Dostępność: AI Mode jest obecnie dostępne w USA, poprzez opcję Google Labs. Sprawdziłem również, że działa z terenu PL poprzez wykorzystanie VPN-a (ustawiamy lokalizację USA).
  • Implikacje analityczne: Jak zmienią się metryki definiujące traffic? Jak będziemy śledzić "ścieżki" użytkowników w ramach konwersacji z AI? O ile spadnie ruch z wyników organicznych, gdyż użytkownik otrzyma odpowiedź od zaraz, bez konieczności klikania w linki do zewnętrznych źródeł?

1.2. Deep Search (Labs)

  • Czym jest? Dla zapytań wymagających dogłębnej analizy, Google wprowadza "Deep Search" w AI Mode. Czyli możliwość poszerzonej analizy danego tematu, podobnie jak to ma obecnie Gemini, ChatGPT czy Grok.
  • Implikacje analityczne: Potencjalnie narzędzie wspomagające pracę analityka w temacie analizy bardzo złożonych tematów i identyfikacji niszowych trendów. Potencjalnie pomocne w badaniach rynkowych i strategicznych np. analiza demograficzna regionów w danym kraju, tak aby lepiej dopasować naszą ofertę - szczególnie jak naszą grupą docelową jest dana kategoria wiekowa.

1.3. Search Live (Labs)

  • Czym jest? Możliwość prowadzenia rozmowy z wyszukiwarką w czasie rzeczywistym, poprzez wykorzystanie kamery.
  • Implikacje analityczne: Analiza interakcji wizualnych otwiera nowy wymiar. Wyobraźmy sobie analizę tego, jak użytkownicy poszukują informacji o produktach w świecie rzeczywistym, skanując je telefonem i następnie przechodzą do konkretnej strony internetowej, gdzie taką rzecz można nabyć.

1.4. Agentic Capabilities (tryb Agenta, na razie tylko plan Google AI Ultra)

  • Czym jest? AI Mode zyska zdolności działania jako Agent, czyli podejmowania autonomicznych decyzji, uczenia się i dążenia do wyznaczonego celu. Na początku ma to być m.in. rezerwacja biletów, restauracji czy wizyt (ciekawe czy poradzi sobie z rezerwacją wizyt lekarskich w PL).
  • Implikacje analityczne: Śledzenie pełnych ścieżek konwersji, które wykraczają poza kliknięcie w link, aż po finalizację transakcji przez agenta AI. A zatem w modelach atrybucji pojawia nam się nowy aktor - Agent, który nie będzie wrażliwy na tradycyjne bodźce marketingowe, szczególnie te dotyczące warstwy emocji, impulsu zakupowego etc.

1.5. Analiza danych i wizualizacja

  • Czym jest? AI Mode pomoże w analizie złożonych zestawów danych i tworzeniu niestandardowych grafik, początkowo dla zapytań sportowych i finansowych np. porównaj cenę akcji X z Y.
  • Implikacje analityczne: każdy z nas będzie mógł i łatwo i szybko tworzyć zestawienia, wykresy czy graficzne porównania danych.


2. Nowości w e-commerce (zakupach online)

AI wkracza mocno w obszar zakupów, co bezpośrednio wpłynie na zachowania zakupowe użytkowników, a tym samym na analitykę e-commerce.

Najważniejsze zapowiedzi w tej tematyce to m.in.

2.1. AI Mode Shopping Experience

  • Czym jest? AI Mode shopping experience to nowy tryb zakupów online od Google, który wykorzystuje sztuczną inteligencję (AI), aby ułatwić i zautomatyzować proces wyboru i zakupu produktów. Tryb łączy możliwości modelu Gemini AI z bazą danych Google Shopping Graph, aby pomóc użytkownikowi:
    • przeglądać produkty z inspiracją i kontekstem,
    • zawężać wybór na podstawie preferencji,
    • przymierzać ubrania wirtualnie na podstawie zdjęcia,
  • Implikacje analityczne: Zrozumienie, jak AI kieruje użytkowników przez ścieżkę zakupową, jakie czynniki wpływają na rekomendacje i jak odbiera je użytkownik w swoich decyzjach zakupowych. A także jak analizować i pozycjonować nasz produkt w środowisku bezuczuciowego AI. I na koniec jak to ująć w raportach analitycznych np. GA4 czy Piwik PRO.

2.2. Wirtualne Przymierzanie

  • Czym jest? Możliwość wirtualnego przymierzania ubrań na bazie podesłanych / dostępnych zdjęć.
  • Implikacje analityczne: Nowe metryki zaangażowania (np. liczba "przymiarek"), wpływ na konwersję i potencjalnie na redukcję zwrotów.

2.3. Agentic Checkout

  • Czym jest? Funkcja śledzenia ceny produktu i powiadamiania o spadkach, ułatwiająca zakup w ramach budżetu.
  • Implikacje analityczne: Analiza elastyczności cenowej, wpływu alertów cenowych na decyzje zakupowe i optymalizacja strategii cenowych. Szczególnie wpłynie to na wzrost znaczenia optymalizacji cenowej. Cena może stać się ważniejsza niż inne bodźce zakupowe, takie jak przywiązanie do marki, impuls zakupowy, zoptymalizowane UI/UX etc. AI zwyczajnie zignoruje te czynniki, monitorując cenę i dokonując zakupu w czasie i serwisie, gdzie będzie najniższa. 

3. Gemini. Nowy, jeszcze lepszy?

Gemini, flagowy model AI od Google, otrzymuje ponownie szereg ulepszeń i nowych zastosowań, stając (ponownie) do walki o miano “najlepszego” modelu językowego.

  • Gemini Live z kolejnymi Integracjami: Połączenie z aplikacjami Google (Maps, Calendar, Tasks, Keep) pozwoli na wykonywanie akcji w trakcie rozmowy np. zapisanie zadania, obsługę kalendarza etc.
  • Gemini Live na iOS: Udostępnianie kamery i ekranu dla użytkowników aplikacji Gemini na iOS.
  • Agent Mode w Gemini (eksperymentalny, wkrótce dla subskrybentów Google AI Ultra): Gemini będzie mógł realizować złożone cele opisane przez użytkownika np. rezerwację wakacji, przy zadanych parametrach.
  • Gemini w Chrome (tylko desktop i na ten moment tylko USA; subskrybenci Google AI Pro i Ultra): Integracja Gemini bezpośrednio z przeglądarką. Gemini będzie analizować zwartość otwartych zakładek i umożliwiać zadawanie pytań oraz podejmowanie akcji, związanych z analizowanym kontekstem strony np. porównanie produktów, podsumowanie artykułu, czy też weryfikacja jego prawdziwości. Ciekawe kiedy to wyjdzie w PL? Na ten moment tylko USA. 


4. Zaawansowane modele i narzędzia AI

Same modele również zyskują kolejne nowe wydania, co jest podstawą wszystkich opisanych wcześniej nowych funkcjonalności. Zobaczmy zatem co najważniejszego zostało ogłoszone:

  • Gemini 2.5 Flash (dostępny w Gemini app, wkrótce w Google AI Studio i Vertex AI): Nowa, szybsza wersja modelu, zoptymalizowana pod kątem kodowania i złożonego rozumowania.
  • Gemini 2.5 Pro (wkrótce)
  • Deep Think (eksperymentalny): Ulepszony tryb rozumowania dla bardzo złożonych zadań matematycznych oraz dla celów kodowania (skomplikowanych aplikacji).
  • Text-to-Speech (nowe wersje preview w 2.5 Pro i Flash): Wsparcie dla wielu mówców (docelowo, na ten moment dla dwóch głosów), ekspresyjne TTS z subtelnościami (np. szept), obsługa ponad 24 języków.
  • Nowa subskrypcja Google AI Ultra (tylko USA na razie): Nowy plan subskrypcyjny za jedyne $249.99 per miesiąc. W zamian cieszymy się najwyższymi limitami użycia, dostępem do najpotężniejszych modeli, 30 TB przestrzeni dyskowej i …. YouTubem Premium (nie, to nie żart. BTW. ciekawe czy ktoś kupi tą subskrypcję tylko dla YouTube Premium ;)


5. Inne, warte uwagi zapowiedzi

  • Deep Research: Narzędzie Deep Research oferuje teraz możliwość bezpośredniego przesyłania plików PDF i obrazów. Pozwoli to na generowanie raportów opartych na połączeniu informacji publicznych oraz tych dostarczonych przez użytkownika.
  • Jules (beta, dla deweloperów): Asynchroniczny agent dla repozytoriów GitHub, pomagający w ulepszaniu i rozumieniu kodu. Co ważne, Jules nie jest jedynie narzędziem do uzupełniania kodu (jak “copilot”), ale jest to autonomiczny agent, który czyta nasz kod, rozumie intencje i samodzielnie wykonuje zadania.
  • Gemma 3n (Google AI Studio, Google Cloud, wkrótce open-source): Najnowszy, szybki i wydajny otwarty model multimodalny (audio, tekst, obraz, wideo) zoptymalizowany dla urządzeń mobilnych i laptopów.
  • Aktualizacja Google AI Studio (już dostępne): Odświeżony interfejs, zintegrowana dokumentacja, dashboardy użycia, nowe aplikacje i zakładka "Generate Media" do eksperymentowania z modelami generatywnymi (Imagen, Veo).
  • Aktualizacja Colab (wkrótce): Dodanie funkcjonalności agenta.
  • NotebookLM App (Play Store, App Store, już dostępne): Aplikacja mobilna dla narzędzia NotebookLM, służącego do prowadzenia notatek czy generowania głosowych podsumowań
  • Video Overviews w NotebookLM (wkrótce): Przekształcanie strukturyzowanych dokumentów z informacjami (PDF, dokumenty, obrazy) w przyswajalne narracyjne przeglądy wideo.
  • Aktualizacja Gemini Code Assist (GA): Dostępny dla indywidualnych użytkowników + GitHub. Gemini 2.5 napędza obie wersje, oferując zaawansowane wsparcie w kodowaniu, tworzeniu aplikacji webowych, transformacji kodu. Historia czatu i wątki ułatwiają kontynuację pracy.
  • Firebase (nowe funkcje): Ułatwienia w budowaniu aplikacji zasilanych AI, w tym aktualizacje Firebase Studio i Firebase AI Logic (kontynuacja rozwoju).


Podsumowanie z perspektywy analityka danych

Co te wszystkie nowości oznaczają dla nas, dla analityków?

  1. Konieczność adaptacji: Tradycyjne metody analizy danych i śledzenia użytkowników będą musiały ewoluować, a my jako analitycy musimy nauczyć korzystać się z narzędzi AI. Ale korzystać mądrze, w sposób przemyślany i przynoszący wartość dodaną do naszej pracy. Najgorsze co możemy zrobić, to oddać całość w ręce AI i zostać tylko klepaczem promptów, który dostarcza bezwartościowe analizy.
  2. (Potencjalnie) nowe spojrzenie na ecommerce, a szczególnie na atrybucję, optymalizację konwersji czy analizę zaangażowania użytkowników. Wymuszają to nowe funkcjonalności takie jak np. monitoring cen, wirtualne przymiarki czy funkcjonalność agenta, który będzie miał zdolność wykonania zakupu. Jest tylko jedno ALE - czy te rzeczy zobaczymy w PL?
  3. Głębsze dostęp do wiedzy: Narzędzia takie jak Deep Search, Deep Research czy funkcjonalność agenta, dają nam dalsze, pogłębione możliwości wykonywania “riserczów”, poszukiwania rozwiązań czy szybszego przyswajania wiedzy. Tym samym lepszego wsparcia naszych Klientów i Partnerów.
  4. Dalsze możliwości automatyzacji, szczególnie via Agent mode. Tym samym więcej żmudnych czynności może zostać pokrytych automatyzacją, a zaoszczędzony czas można przenieść na myślenie i analizy / wnioski biznesowe.

Google I/O 2025 pokazało nam całą paletę interesujących nowości, które z jednej strony stawiają nowe wyzwania, a z drugiej dają narzędzia do sprawniejszej realizacji analiz i wyciągania wniosków z danych. Na koniec pozostaje tylko kwestia, kiedy te wszystkie elementy pojawią się w PL i czy będą w “pełnej” czy okrojonej formie.

Darmowe narzędzia analityczne

Kalkulatory i generatory dla marketerów i analityków

Encyklopedia GA4 Wszystkie zdarzenia GA4
Audytor GA4 Sprawdź konfigurację
Symulator Atrybucji Porównaj modele atrybucji
Kalkulator BigQuery Oszacuj koszty GA4 + BQ
Kreator Linków UTM Taguj kampanie GA4/Piwik
Generator dataLayer Ecommerce, formularze, eventy
Kalkulator ROAS/ROI Rentowność kampanii
Kalkulator LTV Wartość życiowa klienta
Zobacz wszystkie narzędzia →

Przeczytaj również

Najnowsze artykuły z bloga

Porady i wskazówki

Szybkie tipy dla analityków

Więcej porad →