{"id":7514,"date":"2024-12-04T08:00:00","date_gmt":"2024-12-04T07:00:00","guid":{"rendered":"https:\/\/blog.besharp.it\/?p=7514"},"modified":"2024-12-04T14:38:09","modified_gmt":"2024-12-04T13:38:09","slug":"estrarre-dati-da-sap-in-modo-semplice-con-amazon-appflow","status":"publish","type":"post","link":"https:\/\/blog.besharp.it\/it\/estrarre-dati-da-sap-in-modo-semplice-con-amazon-appflow\/","title":{"rendered":"Estrarre dati da SAP in modo semplice con Amazon AppFlow"},"content":{"rendered":"\n
In un mondo in cui i dati guidano l’innovazione aziendale, la capacit\u00e0 di raccoglierli, organizzarli e analizzarli in modo efficiente \u00e8 cruciale. Un data lake \u00e8 un repository centralizzato che acquisisce e memorizza grandi quantit\u00e0 di dati nella loro forma originale. Grazie alla sua architettura scalabile, un data lake pu\u00f2 ospitare tutti i tipi di dati da qualsiasi fonte: strutturati (tabelle di database relazionali, file CSV), semi-strutturati (file XML, pagine web) e non strutturati (immagini, file audio, tweet) – il tutto senza compromettere la fedelt\u00e0.<\/p>\n\n\n\n
AWS offre un ecosistema completo di servizi che ti consentono di creare e gestire i data lake, rendendoli una base ideale per una vasta gamma di esigenze analitiche. Inoltre, attraverso le integrazioni con servizi di terze parti, \u00e8 possibile migliorare ulteriormente un data lake, ottenendo una visione complessiva e approfondita dei dati aziendali.<\/p>\n\n\n\n
In questo articolo, esploreremo un’integrazione specifica tra Amazon AppFlow e SAP per preparare i dati per una piattaforma di analisi dei dati.<\/p>\n\n\n\n
Immagina di poter trasferire i dati tra applicazioni SaaS e il tuo ambiente in AWS rapidamente, in modo sicuro e senza complessit\u00e0. <\/p>\n\n\n\n
Questa \u00e8 la magia che offre Amazon AppFlow<\/strong>, un servizio che semplifica le integrazioni e ti permette di automatizzare i flussi di dati con pochi click, occupandosi di tutti gli aspetti importanti delle integrazioni dei flussi di dati. Ti solleva dal compito di gestire infrastrutture complesse e di scrivere codice per integrare diverse fonti di dati. Un aspetto cruciale dell’integrazione dei flussi di dati \u00e8 la privacy del canale di connessione utilizzato. Fortunatamente, AWS aiuta a risolvere questa problematica con il suo servizio PrivateLink. Amazon AppFlow si integra nativamente con AWS PrivateLink<\/strong>, permettendoti di instaurare connessioni a fonti di dati in maniera privata, senza esporre i dati a internet pubblico. Questo garantisce una miglior sicurezza dei dati, soprattutto quando si tratta di informazioni sensibili.<\/p>\n\n\n\n Analizziamo i principali attori nel nostro scenario, come interagiscono tra di loro e come sono organizzati i nostri account AWS:<\/p>\n\n\n\n <\/p>\n\n\n\n <\/p>\n\n\n\n Notate che l’account di propriet\u00e0 di SAP, cos\u00ec come i nostri account, sono tutti collegati tramite Transit Gateway VPC Attachments. Questa configurazione di rete scalabile garantisce che tutti i nostri account AWS attuali e futuri possano comunicare tra di loro. Un altro aspetto da considerare \u00e8 la corretta configurazione del routing: seguire la best practice del “least privilege” garantisce che gli account abbiano accesso solo ai dati e ai servizi che sono esplicitamente autorizzati a utilizzare.<\/p>\n\n\n\n Una volta che i servizi SAP sono stati collegati al nostro account principale, dobbiamo trovare un modo semplice per rendere i dati disponibili ai nostri consumatori. A tal proposito possiamo utilizzare un Endpoint Service supportato da AWS PrivateLink.<\/p>\n\n\n\n PrivateLink ci consente di condividere un servizio ospitato in AWS con altri account di consumatori. Richiede un Network Load Balancer (supporta anche i Gateway Load Balancer), che riceve le richieste dai consumatori e le inoltra al tuo servizio.<\/p>\n\n\n\n Per configurare una connessione privata su Amazon AppFlow, dobbiamo prima creare e verificare un Endpoint Service che sar\u00e0 il punto di ingresso ai servizi SAP.<\/p>\n\n\n\n Per creare l’Endpoint Service, \u00e8 necessario considerare vari aspetti:<\/p>\n\n\n\n Anche se questi passaggi sono pi\u00f9 incentrati sui servizi SAP, \u00e8 possibile applicare gli stessi principi a qualsiasi altro servizio esterno che si desidera integrare con le applicazioni consumer in AWS.<\/p>\n\n\n\n Aspetta alcuni minuti affinch\u00e9 il provisioning e la verifica del dominio abbiano effetto e dovresti essere pronto per andare avanti!<\/p>\n\n\n\n Ora che abbiamo un Endpoint Service, possiamo passare agli account figli di AWS e creare un nuovo Flow usando SAP OData come sorgente dei dati.<\/p>\n\n\n\n Dalla console di Amazon AppFlow, seleziona SAP OData<\/strong> come tipo di connettore e inserisci i parametri richiesti per la connessione:<\/p>\n\n\n\n Una volta che tutti i campi sono compilati, salva e testa la connessione a SAP.<\/p>\n\n\n\n Con l’aiuto di Amazon AppFlow e di un Endpoint Service VPC, abbiamo ottenuto una connessione privata al nostro datastore in SAP e possiamo ora creare un nuovo flusso di dati.<\/p>\n\n\n\n Ad esempio, puoi configurare un Flow usando un bucket S3 come destinazione, e impostarlo per l’esecuzione on-demand oppure in modo ricorrente.<\/p>\n\n\n\n Puoi scegliere tra json o csv come formati di output, o meglio ancora, puoi scegliere il formato parquet<\/strong>. Utilizzare il formato parquet consente di avere una memorizzazione dei dati altamente compressa e ottimizzata, il che a sua volta permette di ottimizzare i costi di storage e di interrogazione dei dati con AWS Athena.<\/p>\n\n\n\n In questo articolo abbiamo trattato solo il connettore SAP OData, ma \u00e8 solo una delle tante integrazioni che puoi configurare con AppFlow. Abbiamo appena scalfito la superficie di ci\u00f2 che pu\u00f2 essere fatto e delle vaste possibilit\u00e0 che offre un data lake. Da questo punto di partenza puoi espandere il tuo data lake e il sistema di ingestione per accogliere molte altre integrazioni con fonti di dati eterogenee esterne. Questo ti permette di iniziare ad analizzare, trasformare e ottenere preziosi insight dai tuoi dati da un punto di vista centralizzato.<\/p>\n\n\n\n Sentiti libero di esplorare tutte le opzioni di personalizzazione che Amazon AppFlow offre per trovare la configurazione che meglio si adatta al tuo caso d’uso!<\/p>\n\n\n\nPrerequisiti e AWS Organization<\/h2>\n\n\n\n
\n
<\/figure>\n\n\n\n
Setup di un Endpoint Service<\/h4>\n\n\n\n
\n
Setup AppFlow Connection<\/h4>\n\n\n\n
\n
Prossimi Passi<\/h2>\n\n\n\n
Conclusione<\/h2>\n\n\n\n
\n\n\n\nAbout Proud2beCloud<\/h4>\n\n\n\n