Cosa ci dicono i dati soggettivi?

Quanto sono importanti i dati soggettivi?

Ultimamente ci siamo soffermati sulle questioni metodologiche e abbiamo riflettuto insieme su cosa ci raccontano i dati e più in generale su cosa significhi fare (e quali implicazioni ha) un’analisi basata sui dati.

Oggi continuiamo a raccogliere i numerosi spunti provenienti dalla 14esima edizione della Conferenza Nazionale di statistica e parliamo della natura dei dati.

Dati oggettivi vs. dati soggettivi

I dati oggettivi sono quei dati che esistono indipendentemente dall’osservatore, ossia sono osservabili anche da altri. Il dato soggettivo invece dipende strettamente dall’osservatore e non è interosservabile.

Il dato soggettivo è quello attraverso il quale esprimiamo un giudizio, ad esempio se un certo libro ci è piaciuto o meno. Oppure sono quei dati che ci produciamo quando esprimiamo una nostra percezione.

Sono due categorie di dati utilissime, e come ci racconta il Prof. Becchetti dell’ Università di Roma Tor Vergata, sono entrambi utili al fine di conoscere un fenomeno.

Il dato soggettivo è ovviamente soggetto ad un bias, ossia è un dato relativo. La percezione che abbiamo  e quindi il dato che produciamo appartiene soltanto a noi, non sta raccontando un fenomeno in maniera oggettiva.

(Ma non abbiamo detto che nemmeno i dati oggettivi sono veramente oggettivi?)

Tuttavia, utilizzare i dati soggettivi ci permette di cogliere delle conseguenze reali di aspetti oggettivi, sono delle vere e proprie sentinelle.

Unire quindi dati oggettivi a percezioni individuali arricchisce indubbiamente la sfera con cui guardiamo ad un fenomeno.

Ma quanto è distante la percezione pubblica dalla realtà?

Secondo uno studio IPSOS del 2014, l’Italia è il paese che mostra maggiore distanza, tra i 14 paesi oggetto dello studio, tra la realtà dei fenomeni e la loro percezione.

Un esempio?

Guardiamo alla distanza tra disoccupazione reale e dato percepito. Gli italiani intervistati hanno risposto (in media) che il tasso di disoccupazione fosse al 40%. Il dato reale? Circa 4 volte più basso.

Questa discrepanza non è spuria da conseguenze, ma ha a che vedere con come gli italiani percepiscono il paese.

Questo aspetto è cruciale e ci ricorda quanto i policy-makers debbano tenere conto anche degli indicatori soggettivi per prendere delle decisioni, per informare e soprattutto per dare la giusta visibilità ai dati oggettivi.

Tornando dunque all’esempio della disoccupazione, sarebbe opportuno che le persone vengano informate correttamente sul dato oggettivo in quanto al momento hanno una percezione “sbagliata” della realtà.

Non significa che i dati soggettivi non abbiamo valore, anzi in questo caso ci restituiscono l’idea degli aspetti mancanti della comunicazione pubblica.

Qualche riflessione finale

Dati oggettivi e dati soggettivi sono due facce della stessa medaglia. Completano le informazioni e contribuiscono a mettere in luce  degli aspetti che soltanto guardando ad una tipologia di dato ci perderemmo.

Sono entrambi cruciali.

Tuttavia, è fondamentale tenere a mente che il dato oggettivo, quantomeno per la descrizione di alcuni fenomeni, può funzionare da guida.

La statistica ufficiale ha dunque un ruolo centrale nel dibattito e nella comunicazione pubblica, nel fornirci sia i dati oggettivi che quelli soggettivi, e soprattutto nel porsi delle domande sul perché in alcune occasioni esiste una forte discrepanza tra questi due.

Read More
Redazione 17 Dicembre 2021 0 Comments

I Big Data nella nostra vita quotidiana

Di Giuseppe Virgallita

Nel linguaggio comune si sente spesso parlare di “Big Data”, ma ancora più spesso non si riesce a darne una definizione precisa ed univoca.

Preliminarmente, occorre precisare che la stessa espressione Big Data è alquanto fuorviante. Nella sua più stretta accezione letterale, l’espressione “grandi dati” richiama alla mente l’enorme quantità di dati disponibili che produciamo durante quasi tutte le attività quotidiane. Tuttavia, le ingenti quantità di dati prodotte non sempre vengono condivise e rese disponibili a tutti.

Ad ogni modo, con Big Data intendiamo un insieme di dati di volume talmente elevato, parliamo di zettabyte, tale da non poter essere gestito da strumenti convenzionali, bensì da tecnologie innovative idonee a raccoglierli e ad analizzarli. L’analisi dei Big Data è poi utile per fare previsioni su modalità di comportamento, indagini di mercato e consumi, così da prendere decisioni più efficienti.

Oltre a ciò, secondo una definizione coniata da IBM, l’espressione big data può essere impiegata sia in riferimento alla grande velocità con cui i dati vengono generati, sia in riferimento alla capacità, peraltro sempre più crescente, di immagazzinarli, elaborarli ed analizzarli.

I big data inoltre sono stati definiti da Gideon Gartner, nel 2001, come “dei mega dati dotati di risorse informative ad elevato volume, velocità e varietà che richiedono forme di elaborazione delle informazioni economiche ed innovative per potenziare la comprensione, la presa di decisioni e l’automazione dei processi”.

E quindi cosa sono i Big Data?

A partire dalla definizione appena citata, si evince che i big data siano dotati di caratteristiche peculiari (le famose 5V). Vediamole insieme:

  • Un elevato volume: il riferimento è all’enorme mole di dati generati ogni secondo. Questa mole di dati non può essere immagazzinata o elaborata dai sistemi convenzionali di gestione dati e richiede, dunque, delle tecnologie speciali e specifiche;
  • Un’elevata velocità: parliamo non solo della velocità con cui i dati vengono generati, ma anche della velocità di “spostamento” degli stessi. Contenuti virali e la loro rapidità di condivisione, oppure le procedure che richiedono spostamenti di dati in millesimi di secondo, come i controlli di sicurezza sui sistemi di credito durante le transazioni;
  • Grande varietà: si tratta delle varie tipologie di dati che vengono generati, raccolti ed analizzati. Questi possono essere strutturati, ossia organizzati secondo schemi predefiniti e dati non strutturati.
  • Veracità: secondo Gartner, i big data possono rivelarsi assai utili per prendere decisioni di ogni specie. Compresa la crucialità dei dati analizzati e processati, si intuisce la fondamentale importanza di effettuare un controllo rigoroso sulla loro qualità.
  • Valore: consiste nella capacità di trasformare i dati in valore. Sempre secondo Gartner, una veloce analisi di grandi volumi di dati consente di prevedere, in un’ottica squisitamente aziendale, il comportamento acquisito dei propri clienti/utenti consumatori e proporre idee, beni e servizi il più vicino possibile alle loro reali esigenze di vita.

Ancora, insistiamo sul voler costruire una definizione di Big Data, vediamone una elaborata da McKinsey nel 2011, e ripresa da molti autori contemporanei. Questa descrive i c.d. “mega dati” come dati “il cui volume è talmente grande, da superare la capacità dei convenzionali strumenti di gestione dati, i quali risultano incapaci di raccoglierli, immagazzinarli, processarli”.

Una definizione simile viene fornita anche dalla casa editrice O’Reilly Media che aggiunge, altresì, che “si tratta di un flusso di dati troppo vasto e che si sposta talmente velocemente da non adeguarsi all’architettura concepita per gli odierni database”. Viene specificato, inoltre, che “per riuscire ad estrarre valore da questi dati, occorre avvalersi di un metodo alternativo di elaborazione”.

Un tuffo nel passato!

Per molti decenni, la raccolta con l’annesso immagazzinamento di grandi volumi di dati è stato appannaggio dei Governi. Il primo dispositivo di elaborazione dati è stato concepito nel lontano 1943, nel pieno del secondo conflitto bellico mondiale, ad adopera del governo britannico per decifrare e decriptare le comunicazioni provenienti dal regime nazista. Colossus, questo il suo nome originario, era capace di identificare dei modelli all’interno di messaggi ad una velocità pari a 5 mila caratteri al secondo. Un’enorme innovazione per quel periodo storico.

Successivamente, nel 1965, il governo statunitense ha creato un data center capace di immagazzinare i dati dei cittadini. Con la creazione e lo sviluppo del Web per la raccolta e scambio dati, però, servivano strumenti tecnologicamente più sofisticati. Ecco apparire, nel 1992, il Teradata DBC 1012, ossia il primo sistema capace di memorizzare, processare ed analizzare grandi volumi di dati, pari ad 1 terabyte.

Nel 2005, poi, Roger Magoulas di O’Really Media viene citato come uno fra i primi ad aver utilizzato il termine “big data”, fino ad arrivare ai nostri giorni dove social come Facebook e YouTube hanno contribuito alla crescita esponenziale dei dati on line generati dagli utenti. Infine, con il crescente sviluppo dell’internet of things sono state raccolte grandi quantità di dati provenienti da ogni tipo di dispositivo, facilitando, in questo modo, l’accesso delle aziende a nuove tipologie di dati che, conoscendo le abitudini ed i gusti dei consumatori, consentono alle stesse aziende di “cucire su misura” ed ottimizzare le soluzioni offerte. Così operando, non aumenta solo il volume dei dati raccolti, ma anche la loro varietà.

Definite le coordinate principali sui big data e fatta la loro genesi storica, occorre ora capire come questi mega dati vengano analizzati. L’analisi dei big data, meglio nota come “big data analytics”, che consiste nell’uso di tecniche di analisi altamente qualificate e settoriali su grandi flussi di dati (strutturati, semi-strutturati, non strutturati), allo scopo di descrivere degli eventi e delle situazioni, identificare dei pattern, delle correlazioni e delle tendenze, così da trasformare i dati in utili informazioni per ottimizzare la presa delle decisioni. Infatti, l’analisi dei big data consente a diverse tipologie di attori (analisti, business e ricercatori) di prendere delle decisioni in maniera celere e basate su dati concreti.

L’esempio di azienda leader che mette a disposizione strumenti di intelligenza analitica capaci di gestire questi dati è Microsoft.

I Big Data sono parte della nostra vita quotidiana…più di quanto immaginiamo!

Nella vita di tutti i giorni, l’analisi dei flussi dei big data può essere sfruttata per i più svariati motivi, come, per esempio, per cause inerenti all’interesse pubblico. Pensiamo alle applicazioni da parte di un organismo governativo sulla sicurezza stradale che, sfruttando le grandi potenzialità dei big data, ottiene dati relativi agli incidenti stradali, utili per guidare la pianificazione urbana e rendere più sicure ed efficienti le strade urbane ed extraurbane. Notevoli volumi di dati vengono usati, altresì, in periodo di elezioni sia per conoscere gli orientamenti, i convincimenti e le abitudini dei cittadini, sia per fare previsioni e stime sull’affluenza elettorale.

Altri esempi di applicazione dei big data li troviamo in agricoltura, nell’istruzione ed in ambito sanitario.

Nel campo agricolo, in particolare, le grandi aziende di biotecnologia riescono oggi, grazie all’analisi del flusso dei big data, ad ottimizzare l’efficienza e la produttività delle coltivazioni. Proprio attraverso simulazioni specifiche di coltivazioni, infatti, vengono monitorate le risposte delle piante alle diverse situazioni climatiche o a delle variazioni dell’ambiente. Sulla scorta dei dati raccolti è possibile adeguare, ad esempio, la temperatura, l’acqua e la composizione della terra, al fine di riuscire ad identificare il microclima ottimale per lo sviluppo delle diverse tipologie di piante.

Nel campo dell’educazione sono stati sviluppati, poi, diversi software in grado di sfruttare dati sull’apprendimento degli studenti per proporre piani didattici “su misura” che si adattino alle loro esigenze. Ad esempio, l’applicazione Knewton fornisce al professore le previsioni sui contenuti appresi da uno studente individuando, sulla base di queste, i moduli più adatti al caso specifico.

In ambito medico-sanitario, infine, le potenzialità dei big data sono grandissime: si pensi a dei sensori particolarmente precisi e sofisticati che vengono inseriti nel corpo dei pazienti in cura, ma anche nei vari dispositivi indossabili come orologi o occhiali. In particolare, orologi altamente sofisticati permettono al medico di monitorare lo stato di salute del paziente, ottenendo informazioni sempre più dettagliate e precise, in modo da poter intervenire se necessario in maniera tempestiva. Infine, una grande raccolta di dati permette, in ambito di ricerca farmaceutica, di produrre nuove tipologie di farmaci e terapie più efficaci.

Big Data e Social Media: quale rapporto?

Una menzione particolare va poi rivolta al fenomeno dei social media che, da diversi anni, occupano la vita di milioni di persone. In particolare, nella vita di tutti i giorni, le persone comunicano e raccontano le proprie esperienze di vita personali, le loro preferenze, i loro gusti ed i loro dubbi sui social network, in vari modi (sotto forma di un testo, commento di una foto, video, messaggio privato o utilizzando gli hashtag).

In una recente intervista, Mauro Vecchio, CMO di Datalytics, ha descritto l’importanza dei big data sottolineando:

“che arrivino in veste di consumatori, spettatori, opinionisti o tifosi, i cittadini digitali scelgono i social per la loro immediatezza e universalità”.

Sotto questo punto di vista, i social media sono diventati fonti preziose di dati, che aziende in diversi settori sfruttano ogni giorno, per ottimizzare i loro prodotti ed i loro servizi e per rispondere in maniera rapida alle esigenze dei consumatori in questi canali.

Lo stesso esperto menziona, a tal proposito, l’esempio delle social tv e di come gli spettatori siano assai propensi a guardare programmi televisivi ed a commentarli su canali social. Questo assunto non è valido solo nel mondo dello spettacolo e dell’intrattenimento, ma in qualsiasi altro settore dove la c.d. “brand reputation” può essere valutata e monitorata per l’appunto attraverso tutti i flussi di dati degli utenti stessi. Il monitoraggio continuo delle analisi dei commenti e delle conversazioni attorno ad un brand specifico ed ai relativi prodotti, offre all’azienda una vastissima mole di dati da cui trarre spunto sul come migliorare la propria offerta. Infine, conclude l’esperto, sono nate, nell’ultimo decennio, piattaforme apposite che consentono il continuo monitoraggio dei big data derivanti dai social media che, analizzando il pensiero degli utenti/consumatori finali, forniscono informazioni utili al fine di evitare eventuali crisi social che coinvolgano il marchio, i suoi prodotti e la relativa area merceologica.

Privacy e Big Data

Tutto questo proliferare di dati e di nuove opportunità per il mondo del business, delle competenze multimediali e delle nuove tecnologie, ci pone dinanzi al problema della privacy. Affrontare dal punto visto giuridico il fenomeno dei Big Data, ci impone sin da subito di approfondire le numerose problematiche inerenti al trattamento dati personali, sempre più preziosi, parafrasando un antico detto, forse anche più dell’oro e sempre più fonte di rischio. Il rapporto fra riservatezza/privacy e Big Data è sempre più complesso ed il Regolamento Ue 679/2016, il “famoso GDPR” entrato in vigore dal 25 maggio 2018, lo ha reso ancor più complicato a livello europeo.

Beh, abbiamo già dato tante informazioni, che ne dite se ne discutiamo al prossimo appuntamento? 

 

 

Read More
Redazione 18 Maggio 2021 0 Comments

Nasce il Content Flow Service, soluzione lite di Document Management

COMUNICATO STAMPA

 

Nasce il Content Flow Service, soluzione lite di Document Management

Iws Consulting, utilizzando il Records Management Layer e la soluzione software ARXivar realizza la prima applicazione pratica per Todini Costruzioni S.p.A.

 

Il Content Flow Service nasce dalla collaborazione tra IWS Consulting ed AbleTech azienda di riferimento nel mercato con la sua soluzione ARXivar per la Gestione elettronica  dei documenti, del Process Management e della Conservazione elettronica a norma, erogata in qualità di certificatore Accreditato AgID per enti e società.

 

Nell’arco di pochi giorni è stato attivato in Todini Costruzioni un servizio capace di automatizzare tutti i flussi dei documenti aziendali (Document Flow).

Il cliente è rimasto soddisfatto delle funzionalità e della flessibilità della piattaforma. Tale piattaforma copre tutti i requisiti richiesti e individuati durante l’analisi preliminare documentale e archivistica.

 

«L’idea è quella di  fornire una soluzione affidabile, facile da implementare nei processi aziendali già esistenti di una organizzazione piccola e media, rapida da gestire, con un costo contenuto – dice Andrea Capitani, General Manager Iws – Il Content Flow Service aiuta a migliorare la gestione del  Business aziendale a partire dall’automatizzazione dei processi, archiviando i documenti e  protocollando la posta».

 

Lo sviluppo della piattaforma permette una estrema customizzazione, ma soprattutto la gestione autonoma delle attività dopo aver usufruito dell’assistenza per la configurazione iniziale del sistema e della formazione erogata direttamente dal personale specializzato di IWS.

 

Ciò che differenzia il Content Flow Service da altre soluzioni per il documentale sul mercato è  la componente RML – Records Management Layer applicata al software ARXivar, determinante per impostare in modo ottimale flussi e procedure aziendali.

 

«Il Content Flow Service apre alla piattaforma ARXivar ulteriori nuovi ambiti applicativi che saranno di sicuro interesse per le aziende sempre alla ricerca di metodi innovativi e tecnologie all’avanguardia» dice Stefano Nalesso Direttore Commerciale di AbleTech.

 

Per qualsiasi informazione scrivi a cfs@iwsconsulting.it

 

 

Read More
Redazione 1 Giugno 2017 0 Comments