Presentazione standard di PowerPoint

Published on
Scene 1 (0s)

Big Data. abstract.

Scene 2 (11s)

[Audio] In particolare è possibile identificare cinque categorie di informazioni che costituiscono i Big Data: dati generati da smartphone e altri dispositivi mobile relativi a persone, attività e localizzazione, tra cui dati RFID( radio-frequency identification),dispositivi che tracciano il prodotto,e dati da dispositivi di controllo come i contatori per il monitoraggio dell' acqua o del gas;.

Scene 3 (41s)

[Audio] dati di vendita e pricing, dati generati dall' attività delle carte fedeltà e degli eventi promozionali; computer log Data, come i clickstreams dai siti web; informazioni dai social media come Twitter e Facebook; social multimediali e altre informazioni da Flickr, YouTube e siti simili..

Scene 4 (1m 7s)

[Audio] La veridicità riguarda la questione relativa alla qualità dei dati e al loro livello di sicurezza, la cui garanzia rappresenta una sfida molto importante. Il valore è un aspetto fondamentale: per poter sfruttare i Big Data è necessario saper agire per poter estrarne valore e quindi incrementare la produttività e la competitività delle aziende e creare surplus economico per i consumatori. La capacità di memorizzare e aggregare i dati e quindi di utilizzare i risultati per svolgere analisi profonde migliora continuamente grazie alla disponibilità di strumenti software e tecniche sempre più sofisticate combinate a una crescente potenza di calcolo. Stiamo assistendo anche ad un enorme cambiamento della capacità di generare, comunicare, condividere e accedere ai dati dovuto all' aumento del numero di persone, strumenti e sensori ora connessi da reti digitali. Per capire la grandezza del fenomeno, basta osservare la figura nella pagina successiva che mostra quanti dati vengono generati in un minuto..

Scene 5 (2m 19s)

[Audio] I Big Data rappresentano una grande opportunità per le aziende e per le economie nazionali in quanto consentono di ottenere benefici significativi, che elenchiamo di seguito. 1, Creare trasparenza. Un accesso facile e tempestivo ai Big Datarende disponibile una maggiore quantità di informazione e facilita la condivisione dei dati tra le diverse unità organizzative di un' impresa. Per esempio i dati delle unità di R&S, produzione e ingegneria di un' azienda possono essere integrati al fine di favorire il concurrent engineering, tagliando i tempi e migliorando la qualità. 2, Scoprire i comportamenti nascosti e i bisogni dei consumatori. La disponibilità quasi in real time di dati da smartphone fornisce caratteristiche dettagliate sui clienti e sul loro complesso processo decisionale quando fanno acquisti: i Big Data permettono infatti di identificare i modelli comportamentali dei consumatori e far luce sulle loro intenzioni..

Scene 6 (3m 30s)

[Audio] 3, Migliorare le previsioni. L' utilizzo dei Big Data e di tecniche adeguate per il loro sfruttamento portano a migliori predizioni e migliori predizioni fruttano migliori decisioni. Per esempio, le principali compagnie aeree statunitensi, venute a conoscenza del disallineamento tra l' orario previsto e quello effettivo di atterraggio, hanno deciso di utilizzare il servizio RightEta offerto da PASSUR Aerospace, un fornitore di tecnologie di supporto decisionale nel campo dell' aviazione, per risolvere questo problema. Più di 155 installazioni raccolgono un ampio range di informazioni su tutti i voli che vedono, generando un costante flusso di dati digitali che vengono analizzati, quindi RightEta si chiede che cosa sia successo in passato quando un dato aereo si è avvicinato ad un dato aeroporto in determinate condizioni e quando effettivamente sia atterrato. In questo modo la compagnia aerea è riuscita ad eliminare il divario tra arrivo previsto e arrivo effettivo dei voli e questo miglioramento delle previsioni ha portato ad un valore di 7 milioni di dollari all'anno in ciascun aeroporto. Diverse Banche italiane stanno mettendo in atto un progetti finalizzati alla raccolta di dati social per arricchire le informazioni sui loro clienti e sfruttarle per predire il tasso di churn tramite adeguati modelli..

Scene 7 (5m 2s)

[Audio] 4, Rivelare le variabilità delle performance e migliorare le prestazioni. La creazione e la memorizzazione di dati transazionali in forma digitale consente poi alle aziende di avere dati più accurati e dettagliati su svariate performance, dallo stato dei magazzini ai giorni di malattia del personale, in tempo reale o quasi. Inoltre esse, utilizzando i dati per analizzare la variabilità delle prestazioni e per capirne le cause più profonde, possono ottenere risultati migliori. 5, Personalizzare le azioni. I Big Data consentono di creare specifici segmenti di clienti e di personalizzare prodotti e servizi sulla base delle loro esigenze. Si tratta di un grande beneficio per vari settori: le aziende di beni di consumo per esempio stanno iniziando ad utilizzare tecniche di Big Data per realizzare promozioni e pubblicità personalizzate per i diversi cluster..

Scene 8 (6m 9s)

[Audio] 6, Supportare le persone nel processo di decision making. Utilizzando Analytics sofisticati su interi Dataset è possibile automatizzare e migliorare i processi decisionali, minimizzare i rischi e scoprire preziosi insight, benefici che non possono essere perseguiti con l' analisi e la gestione di piccoli campioni di dati tramite i fogli di calcolo. I rivenditori per esempio possono utilizzare algoritmi che consentono la messa a punto automatica e l' ottimizzazione degli inventari e dei prezzi a partire dai dati in tempo reale relativi alle vendite nei negozi e a quelle online..

Scene 9 (6m 51s)

[Audio] 7, Creare nuovi prodotti e servizi, nuove tipologie di aziende e innovativi modelli di business. Le società possono sfruttare i Big Data per realizzare nuovi prodotti e nuovi servizi: molte imprese manifatturiere per esempio stanno utilizzando i dati relativi all' utilizzo di prodotti attuali per migliorare lo sviluppo di modelli futuri e per creare servizi post- vendita innovativi; la disponibilità in real time di dati relativi alla location sta comportando lo sviluppo di nuovi servizi che si servono di questi dati, come le assicurazioni danni basate su dove e come le persone guidano le loro automobili. Nasceranno inoltre aziende che si occuperanno di aggregare ed analizzare i dati aziendali relativi a prodotti, servizi, fornitori, consumatori e loro preferenze e si assisterà addirittura a nuovi modelli di business..

Scene 10 (7m 52s)

[Audio] 8, Incrementare la produttività e la profittabilità delle aziende. Lo sfruttamento dei Big Data può portare ad un aumento dell' efficacia e dell' efficienza delle imprese, le quali potranno realizzare più output utilizzando meno input e migliorare il livello di qualità dell'output stesso. Questo vantaggio interesserà svariati settori: in quello manifatturiero è stata prevista una riduzione di più del 50% dei costi di sviluppo del prodotto e di quelli di assemblaggio e una diminuzione di più del 7% del capitale circolante, nel Retail in America è stato stimato un incremento del margine operativo netto del 60% e un aumento della crescita di produttività annua pari allo 0,5- 1%, mentre nel settore sanitario americano e nel settore della PA europeo è stato previsto che la produttività aumenterà rispettivamente dello 0,7% e dello 0,5% annuo..

Scene 11 (8m 58s)

[Audio] Uno studio condotto al MIT Center for Digital Business ha dimostrato che le aziende Data-driven perseguono migliori performance finanziarie e operative. 330 dirigenti di aziende pubbliche del Nord America sono state intervistate su aspetti quali la gestione organizzativa e tecnologica e sono stati raccolti i risultati dai loro report annuali e da fonti indipendenti: le tre migliori aziende di ciascun settore nell' utilizzo dei Big Data, in media, sono più produttive dei loro competitor per il 5% e più profittevoli per il 6%. Questo elenco di benefici mette in evidenza come l' investimento nei Big Data porti alla creazione di valore per le aziende e quindi all' ottenimento di vantaggio competitivo nel lungo termine. Risulta quindi fondamentale per loro sviluppare competenze in questo ambito, pena il declino in un mondo Big Data..

Scene 12 (10m 0s)

[Audio] Nonostante le opportunità offerte dai Big Data siano enormi, c'è ancora un certo scetticismo all' interno delle aziende sui reali benefici apportati a causa degli scarsi risultati ottenuti in pratica. In uno studio condotto di recente (fine 2014) dal MicKinsey Global Institute ( MGI) rivolto agli Analytics leader di alcune importanti aziende americane impegnate nella realizzazione di progetti di Big Data e di advanced Analytics, è emerso come l' utilizzo di queste tecniche abbia portato ad un aumento dei ricavi e ad un abbassamento dei costi inferiore all' 1% per i tre quarti degli intervistati..

Scene 13 (10m 44s)

[Audio] Esistono quindi una serie di barriere all' utilizzo dei Big Data da considerare, che possono essere classificate in 6 categorie: barriere tecniche, barriere legate alle competenze, barriere organizzative/gestionali, barriere culturali, barriere economiche e barriere legate alla privacy..

Scene 14 (11m 7s)

[Audio] Barriere tecniche. Difficoltà di integrazione dei dati. Integrare dati disomogenei, provenienti da svariate fonti strutturate e non, è un compito molo complesso, così come integrare dati che arrivano da diverse aree aziendali. Di conseguenza estrarre insight e trasformare questi in azioni non è così semplice. Basso grado di influenza del business. Molto spesso gli Analyticsnon portano a risultati significativi per le aziende, frenando ulteriormente la loro adozione da parte delle organizzazioni. Il dirigente di una famosa casa automobilistica ha investito recentemente in un' iniziativa per capire come i social media possano essere utilizzati per migliorare la pianificazione della produzione e le previsioni e ha osservato come l' analisi abbia fatto emergere dettagli interessanti sulle preferenze dei consumatori, ma non abbia fornito una guida su come migliorare effettivamente l' approccio alle previsioni. Scarsa qualità dei dati. Non sempre le aziende hanno a disposizione dati aggiornati e affidabili e questo è un altro ostacolo da superare..

Scene 15 (12m 25s)

[Audio] Barriere legate alle competenze. Difficoltà di comprensione degli strumenti analitici e di quantificazione dei benefici. I manager di linea e i vari utilizzatori non capiscono gli strumenti analitici utilizzati o i consigli che suggeriscono, soprattutto quando questi sono difficili da utilizzare o quando non sono incorporati con i flussi di lavoro e i processi. Risulta perciò complesso per loro anche stimare i benefici derivanti dall' utilizzo dei tool e quindi il ritorno sull' investimento..

Scene 16 (13m 2s)

[Audio] Carenza di talenti. La scarsità di talenti, ovvero di persone con competenze di statistica e di machine learning e manager in grado di sfruttare gli insight dai Big Data nei loro business, rappresenta una delle barriere più importanti. All' interno delle aziende mancano quindi figure organizzative specializzate, quali il Data Scientist e lo Chief Data Officer, che approfondiremo più avanti. Negli Stati Uniti nel 2018 si stima una domanda di talenti pari 440000/490000, un' offerta pari a 300000 e quindi un gap di 140000/190000. Persone con questo tipo di abilità sono difficili da trovare in quanto lo sviluppo di tali competenze richiede anni di formazione e inoltre non si può pensare di colmare questo gap cambiando i requisiti di laurea o aspettando persone che si laureeranno in questo ambito o importando talenti, ma risulta necessario riqualificare individui che sono già a disposizione. Difficoltà nella scelta del tool adatto. La grande varietà di tool, che cambiano molto velocemente e fanno cose molto diverse, rende il processo di scelta molto difficile per le aziende, dato il livello non ancora adeguato di competenze nell'ambito Big Data..

Scene 17 (14m 30s)

[Audio] Barriere organizzative/gestionali. Mancanza di commitment da parte del top management. I top manager non sono coinvolti nelle iniziative di Big Data, verso le quali mostrano poco interesse e quindi non forniscono l' aiuto necessario. Barriere economiche. Investimento elevato. Le iniziative Big Data richiedono ingenti spese in termini di tecnologie implementate e di nuove figure professionali da assumere..

Scene 18 (15m 6s)

[Audio] Barriere culturali. Inerzia. La maggior parte delle aziende non è ancora pronta e del tutto aperta alle innovazioni che i Big Data potrebbero portare, in quanto il loro sfruttamento richiederebbe significativi cambiamenti culturali e organizzativi. Per esempio, per un' azienda sarebbe importante avere a disposizione dati in tempo reale e meccanismi automatici di pricing, ma se i processi di management prevedono di stabilire i prezzi su base settimanale, l' organizzazione non sarà in grado di sfruttare le opportunità offerte dalla tecnologia. Il problema è che nelle organizzazioni non c'è consapevolezza sull' impatto che i Big Data avranno sulla gestione aziendale. Questo comporta lunghi tempi di implementazione..

Scene 19 (15m 59s)

[Audio] Barriere legate alle privacy. I consumatori non vogliono che le loro informazioni personali, come i personal location Data e i dati elettronici generati dal loro uso di Internet, vengano utilizzate dalle aziende, soprattutto perchè non sanno dove e come queste verranno sfruttate dalle organizzazioni, le quali devono considerare anche le leggi relative alle privacy dei diversi Paesi. Tools che consentono di tracciare ogni movimento dei dipendenti e di misurare continuamente le loro performance fanno gli interessi delle organizzazioni e non dei singoli individui, che vedono minacciata la loro privacy.Le aziende devono quindi preservare la privacy individuale e questo le limita nello sfruttamento dei Big Data..

Scene 20 (16m 48s)

[Audio] Di seguito riportiamo le principali tecniche e le tecnologie utilizzate per aggregare, manipolare, gestire e analizzare i Big Data. Tecnica, A/B testing: tecnica in cui un gruppo di controllo viene confrontato con gruppi di test al fine di determinare quali modifiche e azioni miglioreranno una data variabile obiettivo, come il tasso di risposta a una campagna di Marketing. Tecnologia, Cassandra: sistema open source di gestione dei Database, progettato per trattare grandi quantità di dati su un sistema distribuito. Questo sistema è stato sviluppato originariamente da Facebook e ora è gestito come progetto dalla fondazione Apache Sotfware..

Scene 21 (17m 40s)

[Audio] Tecnica, Classificazione: insieme di tecniche che permettono di identificare a quali categorie appartengono nuovi dati, basandosi su un training set i cui i dati sono già stati categorizzati. Tecnologia, Database NewSQL: classe di moderni sistemi di Database relazionali che cercano di fornire le stesse prestazioni scalabili dei sistemi NoSQL per l' elaborazione delle transazioni online in lettura e scrittura..

Scene 22 (18m 15s)

[Audio] Tecnica, Cluster analysis: metodo statistico per classificare gli oggetti, che divide un grande gruppo in piccoli gruppi caratterizzati internamente da omogeneità non nota in anticipo. Tecnologia, Database relazionali: Database costituito da un insieme di tabelle, in cui dati sono memorizzati in righe e colonne. I sistemi di gestione dei Database relazionali memorizzano solo dati strutturati e utilizzano per lo più il linguaggio SQL (linguaggio progettato per la gestione dei dati di questi Database. Questa tecnica permette di inserire, interrogare, aggiornare e cancellare i dati, di controllarne l' accesso e di gestire la struttura del Database)..

Scene 23 (19m 8s)

[Audio] Tecnica, Crowdsourcing: tecnica utilizzata per raccogliere dati, sottoposta a un grande gruppo di persone o a una comunità, attraverso per esempio i network media come il Web. Tecnologia, Database non relazionali ( NoSQL): Database che non memorizza i dati in tabelle ( righe e colonne). Tecnica, Data fusion e Data integration: insieme di tecniche che integrano e analizzano dati provenienti da diverse fonti al fine di sviluppare insight più efficienti e accurati rispetto a quelli ottenuti esaminando una singola fonte. Tecnologia, Data warehouse:Database specializzato per il reporting e spesso utilizzato per memorizzare grandi quantità di dati strutturati. I dati sono caricati attraverso strumenti di ETL (extract, transform e load) da Database operazionali e i report sono generati tramite strumenti di BI..

Scene 24 (20m 16s)

[Audio] Tecnica, Data mining: insieme di tecniche di classificazione, cluster analysis, regole associative e regressione, che permette di estrarre modelli da grandi dataset combinando metodi statistici e di machine learning con la gestione dei database. Tecnologia, Google File System: sistema proprietario di file distribuito, sviluppato da Google. È stata l' ispirazione per Hadoop. Tecnica, Machine Learning: parte della computer science riguardante la progettazione e lo sviluppo di algoritmi che consentono ai computer di identificare i comportamenti basandosi su dati empirici e in particolare di riconoscere schemi complessi e prendere decisioni intelligenti. Tecnologia, Hadoop: software framework open source che processa grandi Data set relativamente a un certo tipo di problema su un sistema distribuito. Il suo sviluppo è stato ispirato da Google File System e da MapReduce di Google. Hadoop è stato sviluppato originariamente da Yahoo! E ora è gestito come progetto di Apache Software Foundation..

Scene 25 (21m 39s)

[Audio] Tecnica, Modelli predittivi: tecniche in cui viene creato o scelto un modello matematico per prevedere la probabilità di un risultato. Tecnologia, HBase: Database open source, distribuito e non relazionale, modellato sul BigTable di Google. È stato sviluppato originarimante da Powerset e ora è gestito come progetto di Apache Software Foundation, come parte di Hadoop. Tecnica, Natural language processing ( NLP): insieme di tecniche di computer science e linguistica che si ricorrono ai computer per analizzare il linguaggio umano. Tecnologia, Hive: software sviluppato da Facebook e da poco open source che gestisce e interroga dati memorizzati in un Hadoop cluster utilizzando un linguaggio simile al linguaggio SQL. È più familiare rispetto ad Hadoop per gli utilizzatori di strumenti di BI..

Scene 26 (22m 49s)

[Audio] Tecnica, Network analysis: insieme di tecniche utilizzate per caratterizzare le relazioni tra nodi in un grafo o in una rete. Nella social network analysis vengono analizzate le relazioni tra individui di una comunità o di un' organizzazione, per esempio come viaggiano le informazioni. Tecnologia, In-memory Database: Database Management System che gestisce i dati nella memoria centrale, molto più veloce dei DBMS su memorie di massa, ma le moli di dati sono molto inferiori. Tenica, Ottimizzazione: insieme di tecniche numeriche utilizzate per riprogettare sistemi complessi e processi al fine di migliorare le performance relativamente a uno o più aspetti, tra cui costi, velocità e affidabilità. Tecnologia, Lucene: progetto utilizzato per ricerche e text Analytics, incorporato in diversi software open source..

Scene 27 (23m 58s)

[Audio] Tecnica, Regole associative: tecniche volte a scoprire relazioni interessanti tra variabili all' interno di un grande dataset. Tecnologia, Mahout: progetto Apache il cui obiettivo è sviluppare applicazioni gratis per algoritmi di machine learning distribuiti e scalabili, al fine di supportare i Big DataAnalytics sulla piattaforma Hadoop. Tecnica, Regressione: set di tecniche che permettono di determinare come il valore di una variabile dipendente cambia quando una o più variabili indipendenti vengono modificate. Tecnologia, MapReduce: software framework introdotto da Google e implementato anche in Hadoop per processare grandi Data set relativamente a certi tipi di problemi su un sistema distribuito..

Scene 28 (24m 55s)

[Audio] Tecnica, Sentiment analysis: applicazione del processing natural language e di altre tecniche analitiche per identificare ed estrarre informazioni soggettive dai testi, per esempio la " polarità" (positiva, negativa o neutra) delle caratteristiche o dei prodotti su cui le persone hanno espresso un'opinione e il grado e la forza dell' opinione stessa. Tecnologia, MPP Database: Database che forniscono un' interfaccia SQL e lavorano segmentando su più nodi i dati i quali vengono elaborati in parallelo. Tecnica, Statistica: scienza della raccolta, organizzazione e interpretazione dei dati, utilizzata per esprimere giudizi sulle relazioni tra variabili che potrebbero essersi verificate per caso ( ipotesi nulla) e su quelle causali (statisticamente significative). Tecnologia, Oozie: progetto open source che ottimizza il flusso di lavoro e il coordinamento tra i task..

Scene 29 (26m 6s)

[Audio] Tecnica, Visualizzazione: tecniche di creazione di immagini, diagrammi o animazioni che consentono di comunicare, capire e migliorare i risultati dell' analisi dei Big Data. Tecnologie, PIG:altro software sviluppato da Yahoo e ora open source, che cerca di portare Hadoop più vicino alla realtà di sviluppatori e utenti aziendali, analogamente a Hive. A differenza di quest'ultimo però utilizza un linguaggio " Perllike" per eseguire query sui dati memorizzati in un cluster Hadoop. Sistemi distribuiti: insieme di computer che comunicano attraverso una rete, utilizzati per risolvere un problema computazionale, il quale viene diviso in diversi task ognuno dei quali viene risolto da uno o più computer che lavorano in parallelo. Questi sistemi presentano tre vantaggi: costi bassi, alta affidabilità e una maggiore scalabilità..

Scene 30 (27m 13s)

[Audio] Altre tecnologie della visualizzazione. WibiData: combinazione di web Analytics e Hadoop, costruito su HBase. Permette ai siti web di eseguire esplorazioni migliori e di lavorare con i dati dei propri utenti, consentendo risposte in real-time relativamente al comportamento degli utenti e fornendo quindi contenuti personalizzati e decisioni. Zookeeper: infrastruttura centralizzata con vari servizi, in grado di sincronizzare un cluster di servers. Le applicazioni di Big DataAnalytics si servono di questi servizi per coordinare processi paralleli tra grandi cluster..

Scene 31 (28m 2s)

[Audio] Dopo aver descritto le principali tecniche e tecnologie, vediamo ora un' architettura concettuale per l' analisi dei Big Data, rappresentata nella figura sulla sinistra. Innanzitutto i Big Data provengono da divere fonti, sia interne che esterne, spesso sono in formati differenti e risiedono in posizioni multiple in numerosi sistemi legacy e altre applicazioni. I dati possono essere sia strutturati (dati conservati in Database relazionali, organizzati secondo schemi e tabelle rigide), sia non strutturati (dati conservati senza alcuno schema come forme libere di testo tra cui articoli e parti di e-mail, audio senza tag, immagini e video) sia semi-strutturati ( dati che presentano caratteristiche sia di quelli strutturati che di quelli non strutturati..

Scene 32 (28m 57s)

[Audio] Un esempio è rappresentato dai file compilati con sintassi XML per i quali non ci sono ci sono limiti strutturali all' inserimento dei dati, ma le informazioni vengono organizzate secondo logiche strutturate e interoperabili). Dopo che i dati sono stati uniti, questi hanno bisogno di essere processati o trasformati, essendo in uno stato grezzo. Ci sono diverse opzioni a disposizione: Service-oriented architecture combinata con web services ( middleware): i dati rimangono grezzi e i services sono utilizzati per chiamare, recuperare e processare i dati; Data warehousing: dati provenienti da svariate fonti vengono aggregati e preparati per essere processati, anche se non sono disponibili in real-time; Extract, transform and load ( ETL): dati che derivano da diversi fonti vengono puliti e preparati per lo step successivo..

Scene 33 (30m 6s)

[Audio] Il passo successivo consiste nella scelta della piattaforma e della tecnologia da utilizzare. L'ultima fase invece è relativa alle applicazioni di Big DataAnalytics che includono queries, reports, OLAP e Data mining e alla visualizzazione, compresa in tutte queste applicazioni. Un ruolo centrale in quest' ambito viene svolto dai Big DataAnalytics, tecnologie di Business Intelligence & Analytics. Nel grafico sulla sinistra quelli più importanti, che ritroveremo più volte in questa ricerca. Behavioural/Gestural Analytics: analisi automatizzata delle attività umane catturate da video che tracciano i movimenti e i gesti per individuare e comprendere comportamenti e intenzioni; Content Analytics: insieme di tecnologie che processano i contenuti digitali e i comportamenti degli utenti nelle conversazioni con altre persone, nelle discussioni sui social network o relativamente al livello di consumo ed engagement di documenti e nuovi siti, per rispondere a determinate domande;.

Scene 34 (31m 21s)

[Audio] CRM Analytics: soluzioni che raccolgono, organizzano e sintetizzano i dati dei clienti per aiutare le organizzazioni a risolvere i problemi di business riguardanti i consumatori attraverso tool, dashboard, portali e altri metodi negli ambiti di Marketing, Sales e Customer Service; Customer Analytics: tecnologie che sfruttano i dati per capire la composizione, i bisogni e la soddisfazione dei consumatori, per poi segmentarli in gruppi sulla base dei comportamenti adottati, implementare azioni di Marketing personalizzate e determinare trend generali;.

Scene 35 (32m 4s)

[Audio] Descriptive Analytics: analisi di dati e contenuti pe rispondere alla domanda "Cosa è successo?" o "Cosa sta succedendo?" attraverso strumenti tradizionali di BI e visualizzazione; Predictive Analytics: Analytics avanzati che implementano tecniche quali la regressione, i modelli predittivi e la statistica per analizzare i dati e i contenuti e rispondere alle domande "Cosa succederà" o "Cosa accadrà molto probabilmente?";.

Scene 36 (32m 38s)

[Audio] Prescriptive Analytics: altra forma di Analytics avanzati che esamina i dati e i contenuti per rispondere alle domande "cosa dovrebbe essere fatto?" o "cosa dobbiamo fare per far sì che succeda una determinata cosa?" e per far questo utilizza tecniche quali l' analisi di grafici, la simulazione, le reti neurali e la machine lerarning; Social Analytics: tools che estraggono, analizzano e sintetizzano automaticamente i contenuti generati dagli utenti online. Questa tecnologia verrà descritto in modo approfondito nei prossimi video;.

Scene 37 (33m 21s)

[Audio] Text Analytics: processo di estrazione delle informazioni dai testi, utilizzato per diversi scopi, tra cui il riepilogo, ovvero il tentativo di trovare i contenuti chiave in un grande insieme di informazioni, la sentiment analysis, già spiegate o per determinare cosa ha guidato un determinato commento di una persona e quindi per un fine esplicativo; Web Analytics: applicazioni analitiche utilizzate per capire e migliorare l' esperienza online del consumatore, l' acquisizione di utenti e l' ottimizzazione del digital Marketinge delle campagne pubblicitarie. Questi offrono reporting, segmentazione, gestione delle campagne e integrazione con altre fonti dati e processi.

Scene 38 (34m 13s)

[Audio] La presenza di nuovi strumenti e i miglioramenti degli approcci di analisi dei dati offrono nuove opportunità per trarre ulteriori vantaggi. In particolare possiamo individuare tre tendenze in atto. La prima è rappresentata dallo sviluppo di soluzioni analitiche specifiche, focalizzate su un' area determinata, come la logistica, la gestione del rischio, il pricing e la gestione del personale. Si tratta di soluzioni che possono essere sviluppate molto rapidamente e che permettono di ottenere notevoli benefici nell'area specifica, ma che richiedono un cambiamento nella cultura organizzativa e la creazione di enfasi sulla loro adozione..

Scene 39 (34m 59s)

[Audio] Un second trend è la democratizzazione degli " Analytics", su cui stanno investendo molte aziende quali American Express, Procter & Gamble e Walmart ( Court D., 2015). Lo sviluppo di nuovi strumenti self-service sta aumentando la fiducia negli Analytics degli utilizzatori frontline, i quali, senza conoscere la singola riga di codice, possono collegare i dati da molteplici fonti e fare previsioni..

Scene 40 (35m 30s)

[Audio] Inoltre gli strumenti di visualizzazione rendono più facili le operazioni di slice e dice, permettono di individuare i dati da esplorare per affrontare le problematiche di business e di supportare il processo di decision making. Un' azienda di hardware, per esempio, ha sviluppato un set di soluzioni analitiche self-service e di strumenti di visualizzazione che aiutano l'azienda a condurre le analisi dei clienti e a identificare le opportunità di vendita e di rinnovo al fine di migliorare le decisioni della forza di vendita. L' implementazione di questa piattaforma ha portato ad un incremento dei ricavi pari a 100 milioni di dollari..

Scene 41 (36m 15s)

[Audio] Infine oggi sta diventando sempre più semplice automatizzare i processi e prendere decisioni: i miglioramenti tecnologici permettono di catturare un numero molto più grande di dati in tempo reale, facilitando quindi i processi di elaborazione di un'enorme base di dati e di analisi in real time. Questi avanzamenti tecnologici stanno aprendo nuovi percorsi per l' automazione e l' apprendimento automatico per tutte le aziende e non solo quelle leader nella tecnologia. Pe esempio un'importante società di assicurazione ha raggiunto notevoli progressi implementando uno strumento che permette di prevedere la gravità dei reclami, attraverso un confronto istantaneo di milioni di dati registrati, riducendo quindi il bisogno dell' intervento umano..

Scene 42 (37m 7s)

[Audio] Affrontiamo ora il modo in cui i Big Data possono creare valore in quattro diversi domini: il settore sanitario, il settore della Pubblica Amministrazione,il Manufacturing e il Retail. Sanità. Oggi il settore sanitario sta affrontando uno tsunami di dati relativi alla salute e alla Sanità, creati e accumulati continuamente. Si tratta di dati clinici generati da sistemi di supporto alle decisioni quali note e prescrizioni dei medici, immagini mediche comprese quelle 3D più recenti, dati dai laboratori, dalle farmacie, dalle assicurazioni e altri amministrativi; electronic health records ( EHR, archivi di dati digitali sanitari); dati generati dalle macchine e sensor data, come quelli provenienti dal monitoraggio dei segnali vitali; genomic data, tra cui il genotipo e l' espressione genica; post dai social media; blog..

Scene 43 (38m 17s)

[Audio] In particolare sono gli EHR che consentono una profonda conoscenza clinica e dei quadri patologici dei pazienti: questi archivi di dati possono essere utilizzati per cercare associazioni nelle diagnosi mediche e considerare le relazioni temporali tra eventi al fine di scoprire la progressione delle malattie. Ogni persona porta 4 terabyte di dati e ciascun payer-provider (i payors sono compagnie di assicurazione, organizzazioni sanitarie, imprenditori e gestori di richieste di rimborso nell' ambito dei programmi di assistenza medica statali o federali mentre i providers sono ospedali, personale sanitario e cliniche) potrebbe costruire una matrice con centinaia di migliaia di pazienti con diverse informazioni e parametri ( demografia, cura e risultati) raccolti per un lungo periodo di tempo..

Scene 44 (39m 15s)

[Audio] I dati sono accumulati velocemente in tempo reale. Future applicazioni real-time, come il rilevamento di infezioni il prima possibile, permetteranno di identificarle rapidamente e di mettere in pratica le giuste terapie, prevenendo infezioni e riducendo il tasso di mortalità. Anche la varietà è una caratteristica dei dati del settore. Ci sono infatti dati strutturati che possono essere facilmente memorizzati, interrogati, analizzati e manipolati, i quali, insieme a quelli semistrutturati, includono la lettura degli strumenti e la conversione dei documenti cartacei in EHR. Oltre a questi ci sono dati non strutturati che comprendono note di medici e infermieri scritte a mano, prescrizioni cartacee, radiografie e immagine mediche..

Scene 45 (40m 10s)

[Audio] La veridicità dei dati, soggetti a errori(soprattutto quelli non strutturati caratterizzati da grande variabilità), rappresenta un obiettivo, in quanto la qualità dei dati nella Sanità è fondamentale: decisioni mediche che impattano sulla vita o la morte delle persone dipendono infatti dall' accuratezza delle informazioni. Le principali applicazioni di Big DataAnalytics utilizzate nel settore sanitario sono le queries, i report, l' OLAP e il Data mining. Tecniche e tecnologie, di cui abbiamo già discusso in precedenza, vengono utilizzate per aggregare, manipolare, analizzare e visualizzare tutti i dati..

Scene 46 (40m 57s)

[Audio] Per riuscire ad ottenere vantaggio competitivo dagli insight forniti dai Big Data, gli strumenti tradizionali non sono sufficienti in quanto essi si focalizzano solo sulla riduzione dei costi e non sul miglioramento dei risultati delle terapie e quindi delle condizioni e del livello di soddisfazione dei pazienti..

Scene 47 (41m 18s)

[Audio] È quindi necessario sviluppare strumenti incentrati sul paziente che prendano in considerazione entrambi gli aspetti; per questo gli stakeholder devono focalizzarsi sui cinque seguenti aspetti: right living: i pazienti devono avere un ruolo attivo nel miglioramento della loro salute, facendo scelte adeguate relative alla dieta, all' esercizio e alla prevenzione; right care: i medici e tutto il personale sanitario devono avere accesso alle medesime informazioni per favorire il coordinamento e lavorare per lo stesso obiettivo, al fine di evitare la duplicazione dello sforzo e strategie subottimali; right provider: tutti i provider devono accedere agli archivi di dati ed essere in grado di raggiungere i risultati migliori; right value: incrementare contemporaneamente il valore e la qualità della cura; right innovation: sviluppare nuovi approcci per migliorare i servizi sanitari..

Scene 48 (42m 31s)

[Audio] Già alcuni leader nel settore sanitario hanno iniziato a focalizzarsi su queste soluzioni o comunque a porre le basi per il futuro. Per esempio Kaiser Permanente, consorzio sanitario in Oakland, California, United States, ha implementato HealthConnect, un nuovo sistema che permette lo scambio dei dati tra le varie strutture mediche e promuove l' utilizzo degli EHR; questa soluzione ha migliorato le prestazioni nell' ambito delle malattie cardiovascolari e comportato un risparmio pari a 1 miliardo di dollari dovuto alla riduzione delle visite e dei test di laboratorio..

Scene 49 (43m 12s)

[Audio] Il ricorso ai Big Data in questo settore permette di conseguire una serie di benefici, connessi a quelli dei Big Data in generale. Benefici, riduzione dei costi. L' aumento dell' efficienza è uno dei più importanti vantaggi ed è reso possibile da una serie di pratiche. Innanzitutto la comparative effectiveness research ( CER), ovvero l' analisi di grandi Dataset in cui sono contenuti dati quali le caratteristiche dei pazienti e i costi e i risultati delle terapie, permette di identificare trattamenti economicamente vantaggiosi. In secondo luogo la creazione di mappe dei processi e di dashboard a partire dai Dataset dei provider consente di identificare le fonti di variabilità e gli sprechi e quindi di ottimizzare i processi clinici. Infine l'analisi dei quadri patologici e dei trend per stimare la domanda futura dei farmaci e il ricorso a modelli predittivi sviluppati dalle aziende farmaceutiche tramite l' aggregazione dei dati di ricerca, favoriscono un' allocazione più vantaggiosa delle risorse R&D..

Scene 50 (44m 26s)

[Audio] Benefici, Incremento dei risultati grazie a decisioni migliori (maggiore qualità delle terapie ed alta soddisfazione dei clienti). La CER e la trasparenza dei dati, garantita dallo sviluppo di mappe di processo e di dashboard, permettono inoltre di ridurre l' incidenza delle terapie dannose e di quelle che dovrebbero essere prescritte ma che non vengono messe in pratica, nonché di migliorare la qualità delle cure. Anche i sistemi di supporto per le decisioni cliniche, in cui i medici inseriscono le loro terapie che vengono poi confrontate con le linee guida, mettono in guardia da eventuali errori come la prescrizione di farmaci che avranno effetti negativi sui pazienti. Questi ultimi possono essere individuati anche attraverso l' analisi dei test clinici e quindi si eviterà di immetterli sul mercato salvaguardando l' immagine aziendale. Gli stessi modelli predittivi rendono le attività di R&D sui farmaci più veloci e più specifiche, favorendo un' immissione molto più rapida dei medicinali sul mercato e la produzione di composti specifici con alto tasso di successo. Infine l' utilizzo di un Database con i dati di tutti i pazienti e di tutte le terapie a livello nazionale assicura una rilevazione rapida delle malattie infettive e il controllo di eventuali epidemie globali grazie ad un apposito programma, garantendo quindi il monitoraggio della salute pubblica ed un miglioramento della qualità della vita stessa..