{"id":7854,"date":"2025-05-20T15:48:01","date_gmt":"2025-05-20T13:48:01","guid":{"rendered":"https:\/\/blog.besharp.it\/?p=7854"},"modified":"2025-05-21T16:55:01","modified_gmt":"2025-05-21T14:55:01","slug":"democratizzare-laccesso-ai-dati-tramite-una-data-platform-self-service-utilizzando-aws-lakeformation-parte-3","status":"publish","type":"post","link":"https:\/\/blog.besharp.it\/it\/democratizzare-laccesso-ai-dati-tramite-una-data-platform-self-service-utilizzando-aws-lakeformation-parte-3\/","title":{"rendered":"Democratizzare l\u2019accesso ai dati tramite una Data Platform self-service utilizzando AWS LakeFormation \u2013 Parte 3"},"content":{"rendered":"\n

In questa serie di articoli, stiamo descrivendo come creare e strutturare correttamente una Data Platform self-service per la democratizzazione dei dati analitici su AWS. Abbiamo iniziato con l’acquisizione e l’archivio dei dati per poi passare agli strumenti di elaborazione per creare dati preziosi per analisi, visualizzazioni e reportistica. Inoltre, ci siamo contrati sulla governance dei dati, sulla reperibilit\u00e0 e sulla collaborazione, con un occhio alla sicurezza e al controllo degli accessi.<\/p>\n\n\n\n

Questo articolo conclude questa serie iniziata con la descrizione delle piattaforme dati e delle relative pipeline di dati<\/a>. Poi, ci siamo soffermati sulla governance dei dati e abbiamo approfondito la democratizzazione dell’accesso ai dati attraverso una data platform self-service, utilizzando AWS LakeFormation<\/a>. <\/p>\n\n\n\n

Vedremo come estrarre il vero valore dai tuoi dati utilizzando SageMaker per creare un modello di Machine Learning per prevedere i dati di vendita e QuickSight per creare visualizzazioni che mostrino come il modello prevede i dati futuri.<\/p>\n\n\n\n

TL;DR<\/h2>\n\n\n\n

Estrai il massimo valore dai dati costruendo applicazioni su di essi, come modelli di Machine Learning (ML) per le previsioni o report di Business Intelligence (BI) per visualizzare le tendenze. Utilizza le funzionalit\u00e0 di SageMaker Unified Studio Experience per creare il modello ML. Esegui l’Analisi Esplorativa dei Dati (EDA) utilizzando notebook, addestra diversi modelli con pipeline (visuali) e seleziona il migliore dal registro dei modelli. Crea dashboard e report utilizzando AWS QuickSight per mostrare le previsioni del modello, insieme ad altre metriche e KPI.<\/p>\n\n\n\n

Estrarre valore dai dati<\/h2>\n\n\n\n

Negli articoli precedenti di questa serie, abbiamo imparato cosa sia una moderna data platform, come strutturarla correttamente con l’architettura a medaglione<\/strong> e implementarla su AWS. Con la data platform come fondamento della nostra architettura dati, ci siamo poi concentrati sull’applicazione della governance dei dati e sulla democratizzazione dei dati nel secondo capitolo, utilizzando AWS LakeFormation. Stabilendo un data lake ben architettato con AWS LakeFormation, abbiamo visto come le aziende possono abbattere i tradizionali silos di dati mantenendo adeguati controlli di sicurezza e governance. Abbiamo esaminato come le organizzazioni possono trasformare le risorse di dati grezzi in risorse accessibili e gestite che danno potere ai team di tutta l’azienda. Questa democratizzazione dei dati crea la base essenziale per ci\u00f2 che segue nella catena del valore dei dati.<\/p>\n\n\n\n

In questo terzo capitolo, sposteremo il nostro focus dall’infrastruttura dati alle applicazioni di dati, gli strumenti e i sistemi potenti che trasformano i dati strutturati in informazioni e azioni. Nello specifico, esploreremo come i modelli di machine learning e le tecniche di visualizzazione dei dati possono essere implementati su AWS per estrarre il massimo valore dalla tua data platform.<\/p>\n\n\n\n

Queste applicazioni rappresentano l’ultima tappa del nostro percorso dati: i dati, adeguatamente organizzati e accessibili diventano il carburante per l’analisi predittiva e i processi decisionali che guidano i risultati aziendali.<\/p>\n\n\n\n

Dalla Data Platform alle Applicazioni di Dati<\/h2>\n\n\n\n

Se hai letto il primo di questa serie di articoli, gi\u00e0 sai con cosa stiamo lavorando ma, per essere tutti allineati, ecco una breve panoramica del setup.<\/p>\n\n\n\n

Agendo come ingegneri dei dati per un’azienda fittizia che aiuta i suoi clienti ad aumentare i loro ricavi, abbiamo creato una data platform seguendo la, ormai standard, architettura a medaglione. Abbiamo sviluppato logiche di acquisizione e trasformazione per raccogliere dati e spostarli attraverso i livelli sempre pi\u00f9 raffinati della data platform. Quindi, abbiamo implementato la governance utilizzando AWS LakeFormation, rendendo i dati accessibili ai team interni e ai clienti.<\/p>\n\n\n\n

<\/p>\n\n\n\n

<\/p>\n\n\n

\n
\"\"<\/figure><\/div>\n\n\n

<\/p>\n\n\n\n

\u00c8 passato del tempo da quando tuo cliente ha adottato la strategia proposta per aumentare le vendite ed \u00e8 piuttosto soddisfatto, ma si chiede: “fino a che punto possiamo spingerci con questa strategia?”. L’azienda ora ti chiede di iniziare a estrarre valore reale dai dati.<\/p>\n\n\n\n

L’idea \u00e8 di creare un modello che, prendendo i dati di vendita dei mesi passati, preveda le vendite per il prossimo anno, mese per mese. Puntiamo anche a mostrare al cliente varie intuizioni per aiutare la creazione della strategia di vendita per il prossimo periodo mostrando loro la linea di tendenza delle vendite previste, insieme ai loro prodotti pi\u00f9 venduti e meno venduti, in modo che possano decidere quali prodotti vale la pena vendere e quali possono essere eliminati dal loro catalogo.<\/p>\n\n\n\n

Amazon SageMaker Unified Studio Experience<\/h2>\n\n\n\n

Ora che abbiamo fissato gli obiettivi, introduciamo il nostro primo strumento.<\/p>\n\n\n\n

Per i pi\u00f9 attenti tra voi, all’interno dell’ultimo capitolo, abbiamo scritto di Amazon DataZone, uno strumento che si basa su AWS LakeFormation per gestire facilmente la governance e la condivisione dei dati. Tuttavia, l’intero ecosistema AWS AI \u00e8 in fase di riprogettazione e rebranding, fortunatamente per noi!<\/p>\n\n\n\n

Tutto ora ricade sotto la pagina di destinazione di SageMaker che ci indirizza attraverso i vari servizi AI, dai data warehouse e motori di query (Athena e Redshift), alle trasformazioni dei dati (EMR e Glue), alla modellazione (SageMaker AI, ex SageMaker), alla AI generativa (Bedrock) e alla governance dei dati (LakeFormation e DataZone).<\/p>\n\n\n\n

Di conseguenza, anche le varie esperienze “Studio” sono state aggregate sotto un’unica suite completa chiamata Amazon SageMaker Unified Studio<\/strong>. Questa nuova esperienza Studio dovrebbe coprire l’intero percorso dei dati dalle fondamenta fino al prodotto finale: l’applicazione AI. Dalle basi dell’elaborazione dei dati, allo sviluppo del modello o all’AI generativa, fino alla distribuzione su larga scala, supportando il lavoro con notebook e editor SQL integrato. Il SageMaker Unified Studio ha le capacit\u00e0 di DataZone, quindi puoi organizzare risorse e utenti in “domini” e promuovere la collaborazione attraverso “progetti”.<\/p>\n\n\n\n

Utilizzeremo il SageMaker Unified Studio per creare il nostro modello ML.<\/p>\n\n\n\n

Previsione delle vendite<\/h2>\n\n\n\n

Utilizzando Amazon SageMaker Unified Studio, iniziamo con la creazione della nostra prima applicazione dati: il modello di Machine Learning.<\/p>\n\n\n\n

Per costruire un modello di machine learning \u00e8 essenziale avere dati e, soprattutto, conoscere e comprendere i tuoi dati. Iniziamo raccogliendo i dati ed eseguendo alcune analisi standard.<\/p>\n\n\n\n

Analisi Esplorativa dei Dati (EDA)<\/h4>\n\n\n\n

Abbiamo dati, gi\u00e0 puliti e preparati, all’interno del nostro gold layer della data platform. Carichiamoli e iniziamo a fare alcune analisi su di essi.<\/p>\n\n\n\n

Una delle feature di SageMaker Unified Studio sono le istanze notebook, ne useremo una come nostra unit\u00e0 di elaborazione per esplorare i nostri dati. Ecco come appare l’esperienza notebook all’interno dello studio:<\/p>\n\n\n\n

<\/p>\n\n\n

\n
\"\"<\/figure><\/div>\n\n\n

<\/p>\n\n\n\n

Come potresti ricordare dagli episodi precedenti di questa serie di articoli, stiamo utilizzando dati di esempio, appositamente creati a supporto di esso. Questo ci aiuta poich\u00e9 durante il processo di creazione, abbiamo specificato le propriet\u00e0 statistiche dei dati.<\/p>\n\n\n\n

Senza ulteriori spiegazioni, vediamo cosa emerge dalla nostra EDA:<\/p>\n\n\n\n