metrica personalizzata che conta solo gli accessi da Chrome e Safari dagli Stati Uniti<\/a>.\u00a0<\/p>\n\n\n\nCome per ogni metrica, sono impostabili allarmi ed \u00e8 possibile calcolare metriche derivate, ma questi sono argomenti all’ordine del giorno nel campo monitoraggio.<\/p>\n\n\n\n
La seconda tipologia di dati \u00e8 meno evidente, ma pi\u00f9 preziosa: si tratta eventi raw generati da utenti reali<\/strong>.<\/p>\n\n\n\nNella configurazione di RUM \u00e8 possibile abilitare l\u2019integrazione con CloudWatch Logs. In questo modo, tutti gli eventi relativi alle attivit\u00e0 generati dagli utenti vengono inviati quindi ad un log group in formato JSON.<\/p>\n\n\n\n
<\/p>\n\n\n
\n
<\/figure><\/div>\n\n\n<\/p>\n\n\n\n
Attenzione:<\/strong> i log group, per default, non impostano un periodo di retention dei dati e RUM ne genera tanti. Per non avere sorprese nella bolletta \u00e8 meglio valutare una retention economicamente sostenibile.\u00a0<\/p>\n\n\n\nQuesto \u00e8 un esempio di log generati da una visualizzazione di pagina:<\/p>\n\n\n\n
<\/p>\n\n\n
\n
<\/figure><\/div>\n\n\n<\/p>\n\n\n\n
Abbiamo quindi finalmente i dati su navigazione e performance a disposizione. <\/p>\n\n\n\n
Questo ne \u00e8 un estratto:<\/p>\n\n\n\n
{\n \"event_timestamp\": 1718098736000,\n \"event_type\": \"com.amazon.rum.performance_navigation_event\",\n \"event_id\": \"91ee89c6-044d-476c-8227-743c8f1b21d1\",\n \"event_version\": \"1.0.0\",\n \"log_stream\": \"2024-06-11T02\",\n \"application_id\": \"48e6845a-7799-4e76-90f6-a3602dac887a\",\n \"application_version\": \"1.0.0\",\n \"metadata\": {\n \"version\": \"1.0.0\",\n \"browserLanguage\": \"en-US\",\n \"browserName\": \"Edge\",\n \"browserVersion\": \"125.0.0.0\",\n \"osName\": \"Linux\",\n \"osVersion\": \"x86_64\",\n \"deviceType\": \"desktop\",\n \"platformType\": \"web\",\n \"pageId\": \"\/\",\n \"interaction\": 0,\n \"title\": \"test\",\n \"domain\": \"blog.besharp.it\",\n \"aws:client\": \"arw-script\",\n \"aws:clientVersion\": \"1.16.1\",\n \"countryCode\": \"IT\",\n \"subdivisionCode\": \"PV\"\n },\n \"user_details\": {\n \"userId\": \"ac3f587b-3887-4661-8200-52d8ce5768f7\",\n \"sessionId\": \"13df94e4-7076-44a2-8b49-5dbb49e55e59\"\n },\n \"event_details\": {\n \"version\": \"1.0.0\",\n \"initiatorType\": \"navigation\",\n \"navigationType\": \"navigate\",\n \"startTime\": 0,\n \"unloadEventStart\": 0,\n \"promptForUnload\": 0,\n \"redirectCount\": 0,\n \"redirectStart\": 0,\n \"redirectTime\": 0,\n \"workerStart\": 0,\n \"workerTime\": 0,\n \"fetchStart\": 4.7999999998137355,\n \"domainLookupStart\": 34,\n \"dns\": 0,\n \"nextHopProtocol\": \"h2\",\n \"connectStart\": 34,\n \"connect\": 15.799999999813735,\n \"secureConnectionStart\": 37.90000000037253,\n \"tlsTime\": 11.899999999441206,\n \"requestStart\": 50.10000000055879,\n \"timeToFirstByte\": 151.8999999994412,\n \"responseStart\": 202,\n \"responseTime\": 1.1000000005587935,\n \"domInteractive\": 276.20000000018626,\n \"domContentLoadedEventStart\": 276.20000000018626,\n \"domContentLoaded\": 0,\n \"domComplete\": 452.1000000005588,\n \"domProcessingTime\": 249,\n \"loadEventStart\": 452.1000000005588,\n \"loadEventTime\": 0.09999999962747097,\n \"duration\": 452.20000000018626,\n \"headerSize\": 300,\n \"transferSize\": 944,\n \"compressionRatio\": 2.0683229813664594,\n \"navigationTimingLevel\": 2\n }\n}<\/code><\/pre>\n\n\n\nSapendo dove si trovano i dati, diventa facile esportarli ed integrarli in un Data Lake. Ad esempio, i log di CloudWatch possono essere inviati Kinesis Firehose e scritti quindi in un bucket S3.<\/p>\n\n\n\n
<\/p>\n\n\n
\n
<\/figure><\/div>\n\n\n<\/p>\n\n\n\n
Una volta esportati i dati, \u00e8 possibile raffinarli, estrarre le\u00a0informazioni e integrarle negli strumenti di analisi interni. A questo punto le possibilit\u00e0 sono infinite.<\/p>\n\n\n\n
Ad esempio, si potrebbe pensare di correlare le vendite di un e-commerce con la posizione dell\u2019utente, il tempo di risposta della pagina o i dati di navigazione della sessione.<\/p>\n\n\n\n
Potremmo scoprire risultati inaspettati, come ad esempio che le condizioni meteorologiche di una particolare area influenzano le vendite. Per aggiungere altre informazioni ci viene in aiuto la possibilit\u00e0 di generare eventi personalizzati in RUM, che possono fungere da segnaposto e facilitare il lavoro di correlazione dei comportamenti.<\/p>\n\n\n\n
Con tutte queste informazioni \u00e8 possibile capire meglio il comportamento degli utenti, il posizionamento SEO, semplificare i processi interni o, semplicemente, avere un sistema di monitoraggio migliore per sapere chi e quando allertare in caso di anomalie e outlier nei dati. Senza contare la possibilit\u00e0 di creare dashboard per i clienti interni ed esterni; a chi non piace una bella dashboard \ud83d\ude42<\/p>\n\n\n\n
Una volta arricchito il Data Lake esistente, anche con queste informazioni originariamente destinate al monitoraggio \u00e8 possibile realmente prendere decisioni accurate basate sui dati.<\/p>\n\n\n\n
Questa soluzione non mira a sostituire Google Analytics, ma a facilitare l\u2019integrazione e l\u2019analisi dei dati: sappiamo che \u00e8 possibile esportare i dati da GA-4 a BigQuery, ma se esiste gi\u00e0 un DataWareHouse basato su AWS, l’integrazione pu\u00f2 richiedere tempo. Il nostro sforzo \u00e8 mirato infatti a supportare le decisioni, e non a mantenere integrazioni tra diversi sistemi.<\/p>\n\n\n\n
Per Concludere<\/h2>\n\n\n\n Scegliere la fonte di dati giusta invece di lavorare sulle integrazioni pu\u00f2 essere vantaggioso e a volte basta scavare nei servizi per scoprire che le informazioni che desideriamo sono gi\u00e0 presenti (spesso molte di pi\u00f9 di quelle di cui avremmo bisogno!).<\/p>\n\n\n\n
Se gi\u00e0 sfruttate CloudWatch RUM, potete facilmente sfruttare l’integrazione con altri servizi AWS con poco sforzo ed utilizzando solo servizi gestiti, anche se, a prima vista, pu\u00f2 sembrare complesso.<\/p>\n\n\n\n
Avete mai pensato a come ottenere dati da fonti… insolite?<\/p>\n\n\n\n
Dopo aver conosciuto questo tipo di integrazione vi sono venute in mente correlazioni inusuali? <\/p>\n\n\n\n
Fatecelo sapere nei commenti!<\/p>\n\n\n\n
\n\n\n\nAbout Proud2beCloud<\/h4>\n\n\n\n Proud2beCloud \u00e8 il blog di beSharp<\/a>, APN Premier Consulting Partner italiano esperto nella progettazione, implementazione e gestione di infrastrutture Cloud complesse e servizi AWS avanzati. Prima di essere scrittori, siamo Solutions Architect che, dal 2007, lavorano quotidianamente con i servizi AWS. Siamo innovatori alla costante ricerca della soluzione pi\u00f9 all’avanguardia per noi e per i nostri clienti. Su Proud2beCloud condividiamo regolarmente i nostri migliori spunti con chi come noi, per lavoro o per passione, lavora con il Cloud di AWS. Partecipa alla discussione!<\/p>\n","protected":false},"excerpt":{"rendered":"Quando interagiamo con qualcosa, generiamo dati. Nel 2016, si prevedeva che un singolo utente internet avrebbe generato 1,7 MB di […]<\/p>\n","protected":false},"author":13,"featured_media":7064,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[247],"tags":[],"class_list":["post-7059","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai-ml"],"yoast_head":"\n
Caccia ai dati: come ottenerli da servizi inaspettati - Proud2beCloud Blog<\/title>\n \n \n \n \n \n \n \n \n \n \n \n \n\t \n\t \n\t \n \n \n \n \n \n \n\t \n\t \n\t \n