Wraz z wprowadzeniem Google Analytics 4, została nam przedstawiona domyślna i powszechnie dostępna integracja z Google BigQuery. Opcja ta była dotąd dostępna jedynie dla posiadaczy Google Analytics 360, czyli opcji płatnej, przygotowanej pod klienta korporacyjnego. BigQuery jest doskonałym narzędziem, poprzez które dostajemy szybki i wygodny dostęp do wszystkich danych zbieranych przez GA4. Umożliwia nam to budowę hurtowni danych na bazie Analyticsa. Jednocześnie ta integracja jest tylko pozornie darmowa, gdyż BigQuery jest usługą płatną i bez znajomości zasad naliczania kosztu oraz jego wysokości, możemy wpędzić się w niepotrzebne tarapaty. Niniejszy post opisuje składowe wyceny i daje dostęp do kalkulatora kosztu.
Wykorzystanie funkcji iterrows() pozwala na implementację klasycznej pętli for do przeglądania kolejnych rekordów w zbiorze DataFrame. Iterrows() zwraca kolejne rekordy w postaci par (index, Series). Niniejszy post pokazuje przykłady wykorzystania iterows() m.in. w kontekście generowania wykresów typu scatter plot.
Post opisuje wykorzystanie biblioteki googleAnalyticsR do interakcji z Google Data API przygotowanym z myślą o najnowszej wersji Google Analytics 4. Kolejno pokazujemy jak połączyć się z API oraz jak pobrać podstawowe dane z przykładowej witryny i następnie wyświetlić wynik w konsoli. Ponieważ biblioteka jest przeznaczona dla języka R, dlatego też skrypt załączony do postu jest w języku R.
Integracja pomiędzy Google Analytics 4 a Google BigQuery daje dostęp do surowych danych Google Analytics. Zakres tych danych jest szerszy, niż dane dostępne domyślnie w panelu Analyticsa, tym samym otrzymujemy możliwość tworzenia poszerzonych raportów opisujących użytkowników i ich interakcję z naszym serwisem internetowym. Niniejszy post opisuje, w kolejnych krokach, jak wykonac taką integrację.
Google Colab to usługa arkuszy typu Jupyter Notebooks dostępna z poziomu przeglądarki (usług Google). W niniejszej publikacji, opisujemy jak z poziomu Google Colab, z wykorzystaniem Pythona i pakietu pyodbc, połączyć się z bazą Microsoft SQL Server, działającą w chmurze Azure Cloud. Artykuł opisuje zarówno prerekwizyty potrzebne do instalacji, jak i sam kod odpowiedzialny za zbudowanie połączenia z bazą.
Częstym problemem jest budowa bazy analitycznej, która synchronizuje się z bazą produkcyjną, pobierając tylko wybrane zestawy danych. Niniejszy post przedstawia budowę takiej infrastruktury, w której baza produkcyjna jest oparta o Google Cloud SQL, a baza analityczna jest oparta o Google BigQuery. Dane są synchronizowane co godzinę, przyrostowo.
Proces wycofania Universal Analytics i zastąpienia go poprzez implementację Google Analytics 4, powoduje, że szukamy możliwości dla zachowania danych zgromadzonych poprzez Universal Analytics. Wydajnie i szybko można to osiągnąć poprzez wykorzystanie API. Post przedstawia bibliotekę googleAnalyticsR napisaną w języku R i dedykowaną do interakcji z API GA w wersji 3. Pobieramy dane z GA i następnie zapisujemy je do pliku.
Indeks jest nieodłącznym elementem każdej ramki danych (dataframe). Dobre, przemyślane indeksowanie pozwala uzyskać efektywniejszy dostęp do danych tzn. szybszy i czytelniejszy. Pakiet pandas pozwala na szybkie wprowadzenie dowolnej kolumny jako indeks, co więcej pozwala na wprowadzenie multi-indeksów, gdzie dwie lub więcej kolumn pełni rolę indeksu. W niniejszym poście pokazujemy jak operować indeksem i jego właściwościami.
Środowisko R ma do zaoferowania bardzo interesująca bibliotekę do pobierania danych z Google Analytics 4. Biblioteka jest bardzo intuicyjna (prosta) w użyciu, co pozwala na szybkie pobranie danych Google Analytics 4 do własnej przestrzeni i następnie np. przygotowanie konkretnych zestawień czy wykresów pod nasze potrzeby. W niniejszym poście pokazujemy, jak się połączyć i jak szybko pobrać dane z Google Analytics 4.
Czy nie byłoby wspaniale, móc uruchomić skrypt Pythona bezpośrednio w przeglądarce internetowej? Tak, mniej więcej, brzmi jedno z haseł na stronie PyScript.net. Zapewne tak, zapewne też PyScript nie jest tu pierwszy, mamy np. WebAssembly. Osobiście jednak czuję dużą prostotę i wygodę korzystania z PyScript-a. Największy minus to szybkość działania. W niniejszym wpisie pokazuję kilka przykładów do samodzielnego uruchomienia i oceny PyScript-a.
Wspieram firmy w transformacji na model działania oparty o dane. Wdrażam i wyciągam rekomendacje, płynące z danych.
Korzystam z Google Marketing Cloud, Google Cloud Platform, Tableau, Microsoft Power BI oraz Python i R.
Posiadam certyfikat Google Analytics 4 i Tableau Certified Professional, doświadczenie akademickie oraz 20-lat doświadczenia biznesowego.
Jestem Co-Founderem spółek: Hexe Capital SA, Cut2Code, Boostsite, KODA, Insightland.
Zapraszam. Krzysztof Surowiecki
Więcej o mnie WspółpracaMoje certyfikaty