Come nasce un’idea?

Vi siete mai chiesti come lavora davvero un’azienda? Come nasce e si sviluppa un progetto?

Parliamo sempre di dati, di cosa significhi prendere decisioni data-driven, di quanto i dati siano fondamentali in azienda, ma ancor di più di quanto è cruciale la capacità di leggerli.

Ma noi di IWS Consulting come mettiamo in pratica questi valori?

Vi raccontiamo come nasce un’idea e come si trasforma in una forte sinergia tra collaboratori. Vi vogliamo raccontare un nostro progetto: come nasce, come si sviluppa e cresce nel tempo e come non si conclude.

Non ci siamo sbagliati! Abbiamo proprio scritto che non si conclude.

Quindi vi abbiamo già anticipato una parte fondamentale del nostro processo: i nostri partner troveranno sempre la porta aperta.

Vogliamo essere disponibili, migliorare e crescere insieme, e quindi no, i progetti non si concludono. Piuttosto evolvono.

Come nasce l’idea? Ecco ci risiamo, di nuovo loro: i dati!

La scorsa settimana abbiamo lanciato un post che anticipasse il racconto un progetto che ci sta particolarmente a cuore.

L’idea è nata da un’esigenza piuttosto semplice: colmare una mancanza di dati. Un importante gruppo farmaceutico si è accorto infatti che in Italia non ci sono molti dati circa lo stato dei pazienti e l’evoluzione dell’epatite C.

L’organizzazione mondiale della sanità stima che ci siano nel mondo circa 71 milioni di persone affette da epatite C cronica, maggiormente distribuite nella regione del mediterraneo centrale e dell’Europa.

Le stime più recenti, ci informano che in Italia ci sono circa 200 mila persone attualmente in trattamento per epatite C con farmaci anti-virali.

Ma effettivamente mancano dati aggiornati ed ufficiali, per una mancanza di screening adeguati che rendano possibili diagnosi puntuali e quindi cure efficienti.

Qui è entrato in gioco il team Analytics di IWS Consulting. Si tratta di un progetto sfidante e soprattutto guidato da una ottima motivazione: migliorare le stime in campo per mirare a migliorare il servizio di cura al cittadino.

Cosa fare?

Una volta chiara la domanda di ricerca e quindi l’obiettivo da raggiungere ci siamo rimboccati le maniche!

Anzitutto ci siamo formati ed informati. Il primo step è sempre leggere tutto il possibile sul tema, vedere quali sono i dati a disposizione, quali le fonti, a quando risale l’ultimo aggiornamento e soprattutto quali metodi di raccolta dati sono stati attuati.

In secondo luogo, con i dati a disposizione e dopo aver effettuato una bella e corposa rassegna della letteratura scientifica in merito, abbiamo disegnato ed implementato un modello matematico-probabilistico che stimasse la popolazione, asintomatica e sintomatica, affetta da epatite C.

E per fare sì che le stime fossero puntuali e specifiche abbiamo tenuto conto di numerosi fattori.  Il modello infatti stima il numero delle persone affette da epatite C in Italia, tenendo conto di numerose variabili. Qualche esempio? L’età della popolazione, la distribuzione degli affetti nelle varie regioni italiane, la mobilità interna e verso l’estero delle persone, differenziando i pazienti anche per lo stato di cronicità della malattia e per le vie di trasmissione.

In conclusione, abbiamo stimato un modello dettagliato che offrisse un quadro più realistico possibile dell’epatite C in Italia.

A cosa serve?

L’obiettivo finale di questo studio, oltre ad avere in generale un quadro d’insieme più chiaro dell’evoluzione dell’epatite C, è quello di formare ed informare gli operatori sanitari sul territorio.

I dati che abbiamo stimato (sempre, ricordiamoci a partire da altri dati esistenti, modelli e letteratura scientifica!!) sono stati trasferiti su un software di visualizzazione interattiva, per permettere una fruizione facile ed intuitiva agli operatori sul campo.

Perché vi abbiamo detto che il progetto non si è concluso?

Si tratta di un lavoro importante, che ha avuto ed ha tuttora delle ricadute reali sul benessere delle persone e dei cittadini e per questo non si conclude mai. Si perfeziona! Siamo quindi felici di migliorarci e crescere insieme ai nostri partner, con la volontà di soddisfare i loro bisogni.

La collaborazione scientifica e umana tra gruppi di lavoro e professionisti con formazioni molto diverse tra loro ha dato vita ad un progetto importante, che ha degli effetti concreti in campo medico sanitario.

E questo è il vero valore aggiunto del nostro lavoro!

 

Read More
Redazione 17 Marzo 2022 0 Comments

Come hai scelto il tuo percorso di studi?

Come hai scelto il percorso di studi da intraprendere?

Hai prediletto le materie che più destavano la tua curiosità, oppure la scelta è ricaduta sulla facilità di trovare un impiego in futuro?

Lo studio proposto da AlmaLaurea ci offre un insieme di dati e di infografiche utili a capire come i ragazzi hanno scelto gli studi da intraprendere e ci fornisce qualche piccolo indizio per ragionare sui condizionamenti iniziali a queste scelte.

Pronti? Via!

Che dati stiamo guardando?

La domanda che ormai abbiamo imparato a porci, sempre, prima di iniziare qualunque tipo di valutazione è proprio quella relativa alla fonte dei dati e come questi siano composti.

L’obiettivo di questo rapporto è quello di informare i policy-makers e gli stake-holders sullo stato dell’occupazione dei laureati a uno, tre e cinque anni dal conseguimento del titolo, nonché fornire una fotografia dello stato attuale (la demografia) dei laureati in Italia nel 2020.

Per rispondere dunque alle domande che la ricerca si pone, è necessario preparare un campione composto da unità differenti.

Abbiamo quindi i dati per:

  • 291,000 persone che hanno conseguito il titolo nel 2020,  di cui il 58.7% donne e il restante 41.3% uomini, per valutare la demografia dei laureati oggi;
  • 650,000 laureati nel 2019, 2017 e 2015 per valutare la condizione dell’occupazione a uno, tre e cinque anni dalla laurea.

Chi si è laureato nel 2020? Una fotografia.

Le donne rappresentano la quota maggiore dei laureati in Italia conseguendo quasi il 60% sul totale dei titoli di studio nel 2020. Interessante che il processo di partecipazione delle donne agli studi universitari sia partito negli anni ’70 e abbia raggiunto la parità (per poi invertire il trend) nell’anno scolastico 1991/92.

I dati mostrano un aspetto molto interessante circa l’istruzione: le donne laureate provengono da contesti socio-economici più difficili.

Sono infatti in percentuale inferiore rispetto ai loro pari, le donne che studiano con almeno un genitore laureato e soprattutto tendono ad ereditare meno il titolo conseguito dai genitori, soprattutto per ciò che riguarda la libera professione. Il 42.5% degli uomini (contro il 31% delle donne) infatti intraprende lo stesso percorso di studio del proprio genitore.

Inoltre, le donne sembrano performare meglio anche durante il percorso: il 61.4% delle donne (contro il 52.1%  dei loro pari uomini) intraprende un tirocinio curricolare durante gli studi e il 60,2% si laurea in corso, rispetto al 55.7% degli uomini.

E come va dopo la laurea?

I dati ci suggeriscono che gli uomini sono maggiormente favoriti rispetto alla situazione occupazionale sia nel breve che nel lungo periodo.

Gli uomini rappresentano rispettivamente il 72 e il 72.4% degli occupati con laurea di primo e di secondo livello, rispetto al 67.6 e 64.5% delle donne.

Questa differenza si registra anche dal punto di vista retributivo. Gli uomini infatti registrano dal 12 al 16% in più delle loro pari donne, rispettivamente con la laurea di primo e di secondo livello.

Cosa manca?

Come al solito, abbiamo fatto una bella carrellata di dati che ci da informazioni sui laureati nel 2020 e ci informa sulla condizione occupazionale post-laurea. Ci manca scoprire ed indagare il perché ad esempio, seppure le donne sembrano ottenere maggiori successi durante la carriera universitaria, poi hanno una vita professionale meno proficua.

Quindi la solita questione: i dati sono sempre esaustivi?

 

 

Read More
Redazione 24 Febbraio 2022 0 Comments
Statistical data abstract on paper and tablet

Quello che le app non dicono!

Vi siete mai chiesti quali sono quei dati che le applicazioni digitali non riescono a conteggiare?

Cioè quelle metriche che ogni giorno non riusciamo a visualizzare.

Al NewYorker sì, e ne è uscito un articolo davvero divertente sulla rubrica More Humor.

Ogni giorno infatti, grazie ai dati raccolti dalle applicazioni web, siamo consapevoli di quanti passi abbiamo fatto, quante calorie abbiamo bruciato oppure la quantità delle ore impiegate davanti al computer.

Ma quali sono i dati che le app non riescono a catturare?

Grazie all’intelligenza artificiale abbiamo la possibilità di impostare alcune metriche per calcolare semplici indicatori di performance della nostra vita quotidiana.

Le variabili da conteggiare sono molteplici. I KPI (gli indicatori di performance che ci aiutano a determinare quanto siamo vicini al raggiungimento di un obiettivo strategico), quindi le metriche che scegliamo di utilizzare per misurare le nostre performance quotidiane, che siano sul lavoro oppure sull’attività fisica, possono essere davvero molte.

Alcune applicazioni web ci aiutano addirittura a tracciare i tempi che dedichiamo a ciascuna singola task di un progetto di lavoro oppure di un’attività personale. Sapere se impieghiamo un’ora o 5 a completare un determinato compito giornaliero ci supporta nella pianificazione della giornata.

Quindi, al solito, questi dati, il tracciamento di queste metriche sembrano essere molto utili. Ma ci raccontano veramente tutto?

La risposta è no, e noi aggiungiamo anche per fortuna!

Di seguito alcuni esempi proposti nell’articolo “Metriche di cui sono grato il mio telefono non tenga traccia”. Mai nome dell’articolo fu più azzeccato.

Come ci sentiremmo se ogni giorno ricevessimo una notifica sul costo orario della palestra calcolato in base alle ore che davvero  frequentiamo?

Oppure, i km percorsi nelle famose “scarpe di qualcun altro”. La metrica per tutte le volte in cui ci siamo immedesimati in una situazione non nostra e perché no, l’abbiamo anche giudicata.

E sì, l’articolo ne propone molte altre.

Il punto però è un altro!

Tutto quello che facciamo ha un’etichetta precisa?

Tutti questi esempi divertenti ci forniscono lo spunto di riflessione per molto altro.

In questo blog ci occupiamo di dati, e quello che ci interessa è certamente celebrarne l’utilità ma anche capirne i limiti. E perché no, sviluppare un approccio critico.

Non sempre le metriche che impostiamo sui nostri dispositivi elettronici riescono a catturare davvero tutto quello che riguarda la nostra vita.

Se sappiamo che un giorno siamo stati 5 ore davanti al pc, oppure abbiamo impiegato 30 minuti per leggere e comprendere 5 pagine, abbiamo tutte le informazioni complete per sapere se questa performance è ripetibile?

Oppure se si è trattato di un pomeriggio davvero produttivo?

Le metriche non tengono conto infatti di molte altre variabili, che pure intervengono nello svolgimento di questi compiti.

Non sanno infatti se eravamo concentrati, se il nostro umore era buono oppure se c’era qualcosa che ci ha fatto essere più disattenti.

E quindi no, le ore spese per raggiungere un certo obiettivo non sembrano raccontarci poi molto del successo. Ciò di cui tenere conto sono le decisioni e le riflessioni che riusciamo a fare durante quelle ore.

In questo, la famosa citazione di Joseph Conrad che dice:

“come faccio a spiegare a mia moglie che quando guardo fuori dalla finestra sto lavorando?”

sembra calzare proprio a pennello.

La metrica giusta a volte non si misura.

Read More
Redazione 17 Febbraio 2022 0 Comments

Cosa ci dicono i dati soggettivi?

Quanto sono importanti i dati soggettivi?

Ultimamente ci siamo soffermati sulle questioni metodologiche e abbiamo riflettuto insieme su cosa ci raccontano i dati e più in generale su cosa significhi fare (e quali implicazioni ha) un’analisi basata sui dati.

Oggi continuiamo a raccogliere i numerosi spunti provenienti dalla 14esima edizione della Conferenza Nazionale di statistica e parliamo della natura dei dati.

Dati oggettivi vs. dati soggettivi

I dati oggettivi sono quei dati che esistono indipendentemente dall’osservatore, ossia sono osservabili anche da altri. Il dato soggettivo invece dipende strettamente dall’osservatore e non è interosservabile.

Il dato soggettivo è quello attraverso il quale esprimiamo un giudizio, ad esempio se un certo libro ci è piaciuto o meno. Oppure sono quei dati che ci produciamo quando esprimiamo una nostra percezione.

Sono due categorie di dati utilissime, e come ci racconta il Prof. Becchetti dell’ Università di Roma Tor Vergata, sono entrambi utili al fine di conoscere un fenomeno.

Il dato soggettivo è ovviamente soggetto ad un bias, ossia è un dato relativo. La percezione che abbiamo  e quindi il dato che produciamo appartiene soltanto a noi, non sta raccontando un fenomeno in maniera oggettiva.

(Ma non abbiamo detto che nemmeno i dati oggettivi sono veramente oggettivi?)

Tuttavia, utilizzare i dati soggettivi ci permette di cogliere delle conseguenze reali di aspetti oggettivi, sono delle vere e proprie sentinelle.

Unire quindi dati oggettivi a percezioni individuali arricchisce indubbiamente la sfera con cui guardiamo ad un fenomeno.

Ma quanto è distante la percezione pubblica dalla realtà?

Secondo uno studio IPSOS del 2014, l’Italia è il paese che mostra maggiore distanza, tra i 14 paesi oggetto dello studio, tra la realtà dei fenomeni e la loro percezione.

Un esempio?

Guardiamo alla distanza tra disoccupazione reale e dato percepito. Gli italiani intervistati hanno risposto (in media) che il tasso di disoccupazione fosse al 40%. Il dato reale? Circa 4 volte più basso.

Questa discrepanza non è spuria da conseguenze, ma ha a che vedere con come gli italiani percepiscono il paese.

Questo aspetto è cruciale e ci ricorda quanto i policy-makers debbano tenere conto anche degli indicatori soggettivi per prendere delle decisioni, per informare e soprattutto per dare la giusta visibilità ai dati oggettivi.

Tornando dunque all’esempio della disoccupazione, sarebbe opportuno che le persone vengano informate correttamente sul dato oggettivo in quanto al momento hanno una percezione “sbagliata” della realtà.

Non significa che i dati soggettivi non abbiamo valore, anzi in questo caso ci restituiscono l’idea degli aspetti mancanti della comunicazione pubblica.

Qualche riflessione finale

Dati oggettivi e dati soggettivi sono due facce della stessa medaglia. Completano le informazioni e contribuiscono a mettere in luce  degli aspetti che soltanto guardando ad una tipologia di dato ci perderemmo.

Sono entrambi cruciali.

Tuttavia, è fondamentale tenere a mente che il dato oggettivo, quantomeno per la descrizione di alcuni fenomeni, può funzionare da guida.

La statistica ufficiale ha dunque un ruolo centrale nel dibattito e nella comunicazione pubblica, nel fornirci sia i dati oggettivi che quelli soggettivi, e soprattutto nel porsi delle domande sul perché in alcune occasioni esiste una forte discrepanza tra questi due.

Read More
Redazione 17 Dicembre 2021 0 Comments

I Big Data nella nostra vita quotidiana

Di Giuseppe Virgallita

Nel linguaggio comune si sente spesso parlare di “Big Data”, ma ancora più spesso non si riesce a darne una definizione precisa ed univoca.

Preliminarmente, occorre precisare che la stessa espressione Big Data è alquanto fuorviante. Nella sua più stretta accezione letterale, l’espressione “grandi dati” richiama alla mente l’enorme quantità di dati disponibili che produciamo durante quasi tutte le attività quotidiane. Tuttavia, le ingenti quantità di dati prodotte non sempre vengono condivise e rese disponibili a tutti.

Ad ogni modo, con Big Data intendiamo un insieme di dati di volume talmente elevato, parliamo di zettabyte, tale da non poter essere gestito da strumenti convenzionali, bensì da tecnologie innovative idonee a raccoglierli e ad analizzarli. L’analisi dei Big Data è poi utile per fare previsioni su modalità di comportamento, indagini di mercato e consumi, così da prendere decisioni più efficienti.

Oltre a ciò, secondo una definizione coniata da IBM, l’espressione big data può essere impiegata sia in riferimento alla grande velocità con cui i dati vengono generati, sia in riferimento alla capacità, peraltro sempre più crescente, di immagazzinarli, elaborarli ed analizzarli.

I big data inoltre sono stati definiti da Gideon Gartner, nel 2001, come “dei mega dati dotati di risorse informative ad elevato volume, velocità e varietà che richiedono forme di elaborazione delle informazioni economiche ed innovative per potenziare la comprensione, la presa di decisioni e l’automazione dei processi”.

E quindi cosa sono i Big Data?

A partire dalla definizione appena citata, si evince che i big data siano dotati di caratteristiche peculiari (le famose 5V). Vediamole insieme:

  • Un elevato volume: il riferimento è all’enorme mole di dati generati ogni secondo. Questa mole di dati non può essere immagazzinata o elaborata dai sistemi convenzionali di gestione dati e richiede, dunque, delle tecnologie speciali e specifiche;
  • Un’elevata velocità: parliamo non solo della velocità con cui i dati vengono generati, ma anche della velocità di “spostamento” degli stessi. Contenuti virali e la loro rapidità di condivisione, oppure le procedure che richiedono spostamenti di dati in millesimi di secondo, come i controlli di sicurezza sui sistemi di credito durante le transazioni;
  • Grande varietà: si tratta delle varie tipologie di dati che vengono generati, raccolti ed analizzati. Questi possono essere strutturati, ossia organizzati secondo schemi predefiniti e dati non strutturati.
  • Veracità: secondo Gartner, i big data possono rivelarsi assai utili per prendere decisioni di ogni specie. Compresa la crucialità dei dati analizzati e processati, si intuisce la fondamentale importanza di effettuare un controllo rigoroso sulla loro qualità.
  • Valore: consiste nella capacità di trasformare i dati in valore. Sempre secondo Gartner, una veloce analisi di grandi volumi di dati consente di prevedere, in un’ottica squisitamente aziendale, il comportamento acquisito dei propri clienti/utenti consumatori e proporre idee, beni e servizi il più vicino possibile alle loro reali esigenze di vita.

Ancora, insistiamo sul voler costruire una definizione di Big Data, vediamone una elaborata da McKinsey nel 2011, e ripresa da molti autori contemporanei. Questa descrive i c.d. “mega dati” come dati “il cui volume è talmente grande, da superare la capacità dei convenzionali strumenti di gestione dati, i quali risultano incapaci di raccoglierli, immagazzinarli, processarli”.

Una definizione simile viene fornita anche dalla casa editrice O’Reilly Media che aggiunge, altresì, che “si tratta di un flusso di dati troppo vasto e che si sposta talmente velocemente da non adeguarsi all’architettura concepita per gli odierni database”. Viene specificato, inoltre, che “per riuscire ad estrarre valore da questi dati, occorre avvalersi di un metodo alternativo di elaborazione”.

Un tuffo nel passato!

Per molti decenni, la raccolta con l’annesso immagazzinamento di grandi volumi di dati è stato appannaggio dei Governi. Il primo dispositivo di elaborazione dati è stato concepito nel lontano 1943, nel pieno del secondo conflitto bellico mondiale, ad adopera del governo britannico per decifrare e decriptare le comunicazioni provenienti dal regime nazista. Colossus, questo il suo nome originario, era capace di identificare dei modelli all’interno di messaggi ad una velocità pari a 5 mila caratteri al secondo. Un’enorme innovazione per quel periodo storico.

Successivamente, nel 1965, il governo statunitense ha creato un data center capace di immagazzinare i dati dei cittadini. Con la creazione e lo sviluppo del Web per la raccolta e scambio dati, però, servivano strumenti tecnologicamente più sofisticati. Ecco apparire, nel 1992, il Teradata DBC 1012, ossia il primo sistema capace di memorizzare, processare ed analizzare grandi volumi di dati, pari ad 1 terabyte.

Nel 2005, poi, Roger Magoulas di O’Really Media viene citato come uno fra i primi ad aver utilizzato il termine “big data”, fino ad arrivare ai nostri giorni dove social come Facebook e YouTube hanno contribuito alla crescita esponenziale dei dati on line generati dagli utenti. Infine, con il crescente sviluppo dell’internet of things sono state raccolte grandi quantità di dati provenienti da ogni tipo di dispositivo, facilitando, in questo modo, l’accesso delle aziende a nuove tipologie di dati che, conoscendo le abitudini ed i gusti dei consumatori, consentono alle stesse aziende di “cucire su misura” ed ottimizzare le soluzioni offerte. Così operando, non aumenta solo il volume dei dati raccolti, ma anche la loro varietà.

Definite le coordinate principali sui big data e fatta la loro genesi storica, occorre ora capire come questi mega dati vengano analizzati. L’analisi dei big data, meglio nota come “big data analytics”, che consiste nell’uso di tecniche di analisi altamente qualificate e settoriali su grandi flussi di dati (strutturati, semi-strutturati, non strutturati), allo scopo di descrivere degli eventi e delle situazioni, identificare dei pattern, delle correlazioni e delle tendenze, così da trasformare i dati in utili informazioni per ottimizzare la presa delle decisioni. Infatti, l’analisi dei big data consente a diverse tipologie di attori (analisti, business e ricercatori) di prendere delle decisioni in maniera celere e basate su dati concreti.

L’esempio di azienda leader che mette a disposizione strumenti di intelligenza analitica capaci di gestire questi dati è Microsoft.

I Big Data sono parte della nostra vita quotidiana…più di quanto immaginiamo!

Nella vita di tutti i giorni, l’analisi dei flussi dei big data può essere sfruttata per i più svariati motivi, come, per esempio, per cause inerenti all’interesse pubblico. Pensiamo alle applicazioni da parte di un organismo governativo sulla sicurezza stradale che, sfruttando le grandi potenzialità dei big data, ottiene dati relativi agli incidenti stradali, utili per guidare la pianificazione urbana e rendere più sicure ed efficienti le strade urbane ed extraurbane. Notevoli volumi di dati vengono usati, altresì, in periodo di elezioni sia per conoscere gli orientamenti, i convincimenti e le abitudini dei cittadini, sia per fare previsioni e stime sull’affluenza elettorale.

Altri esempi di applicazione dei big data li troviamo in agricoltura, nell’istruzione ed in ambito sanitario.

Nel campo agricolo, in particolare, le grandi aziende di biotecnologia riescono oggi, grazie all’analisi del flusso dei big data, ad ottimizzare l’efficienza e la produttività delle coltivazioni. Proprio attraverso simulazioni specifiche di coltivazioni, infatti, vengono monitorate le risposte delle piante alle diverse situazioni climatiche o a delle variazioni dell’ambiente. Sulla scorta dei dati raccolti è possibile adeguare, ad esempio, la temperatura, l’acqua e la composizione della terra, al fine di riuscire ad identificare il microclima ottimale per lo sviluppo delle diverse tipologie di piante.

Nel campo dell’educazione sono stati sviluppati, poi, diversi software in grado di sfruttare dati sull’apprendimento degli studenti per proporre piani didattici “su misura” che si adattino alle loro esigenze. Ad esempio, l’applicazione Knewton fornisce al professore le previsioni sui contenuti appresi da uno studente individuando, sulla base di queste, i moduli più adatti al caso specifico.

In ambito medico-sanitario, infine, le potenzialità dei big data sono grandissime: si pensi a dei sensori particolarmente precisi e sofisticati che vengono inseriti nel corpo dei pazienti in cura, ma anche nei vari dispositivi indossabili come orologi o occhiali. In particolare, orologi altamente sofisticati permettono al medico di monitorare lo stato di salute del paziente, ottenendo informazioni sempre più dettagliate e precise, in modo da poter intervenire se necessario in maniera tempestiva. Infine, una grande raccolta di dati permette, in ambito di ricerca farmaceutica, di produrre nuove tipologie di farmaci e terapie più efficaci.

Big Data e Social Media: quale rapporto?

Una menzione particolare va poi rivolta al fenomeno dei social media che, da diversi anni, occupano la vita di milioni di persone. In particolare, nella vita di tutti i giorni, le persone comunicano e raccontano le proprie esperienze di vita personali, le loro preferenze, i loro gusti ed i loro dubbi sui social network, in vari modi (sotto forma di un testo, commento di una foto, video, messaggio privato o utilizzando gli hashtag).

In una recente intervista, Mauro Vecchio, CMO di Datalytics, ha descritto l’importanza dei big data sottolineando:

“che arrivino in veste di consumatori, spettatori, opinionisti o tifosi, i cittadini digitali scelgono i social per la loro immediatezza e universalità”.

Sotto questo punto di vista, i social media sono diventati fonti preziose di dati, che aziende in diversi settori sfruttano ogni giorno, per ottimizzare i loro prodotti ed i loro servizi e per rispondere in maniera rapida alle esigenze dei consumatori in questi canali.

Lo stesso esperto menziona, a tal proposito, l’esempio delle social tv e di come gli spettatori siano assai propensi a guardare programmi televisivi ed a commentarli su canali social. Questo assunto non è valido solo nel mondo dello spettacolo e dell’intrattenimento, ma in qualsiasi altro settore dove la c.d. “brand reputation” può essere valutata e monitorata per l’appunto attraverso tutti i flussi di dati degli utenti stessi. Il monitoraggio continuo delle analisi dei commenti e delle conversazioni attorno ad un brand specifico ed ai relativi prodotti, offre all’azienda una vastissima mole di dati da cui trarre spunto sul come migliorare la propria offerta. Infine, conclude l’esperto, sono nate, nell’ultimo decennio, piattaforme apposite che consentono il continuo monitoraggio dei big data derivanti dai social media che, analizzando il pensiero degli utenti/consumatori finali, forniscono informazioni utili al fine di evitare eventuali crisi social che coinvolgano il marchio, i suoi prodotti e la relativa area merceologica.

Privacy e Big Data

Tutto questo proliferare di dati e di nuove opportunità per il mondo del business, delle competenze multimediali e delle nuove tecnologie, ci pone dinanzi al problema della privacy. Affrontare dal punto visto giuridico il fenomeno dei Big Data, ci impone sin da subito di approfondire le numerose problematiche inerenti al trattamento dati personali, sempre più preziosi, parafrasando un antico detto, forse anche più dell’oro e sempre più fonte di rischio. Il rapporto fra riservatezza/privacy e Big Data è sempre più complesso ed il Regolamento Ue 679/2016, il “famoso GDPR” entrato in vigore dal 25 maggio 2018, lo ha reso ancor più complicato a livello europeo.

Beh, abbiamo già dato tante informazioni, che ne dite se ne discutiamo al prossimo appuntamento? 

 

 

Read More
Redazione 18 Maggio 2021 0 Comments

Nasce il Content Flow Service, soluzione lite di Document Management

COMUNICATO STAMPA

 

Nasce il Content Flow Service, soluzione lite di Document Management

Iws Consulting, utilizzando il Records Management Layer e la soluzione software ARXivar realizza la prima applicazione pratica per Todini Costruzioni S.p.A.

 

Il Content Flow Service nasce dalla collaborazione tra IWS Consulting ed AbleTech azienda di riferimento nel mercato con la sua soluzione ARXivar per la Gestione elettronica  dei documenti, del Process Management e della Conservazione elettronica a norma, erogata in qualità di certificatore Accreditato AgID per enti e società.

 

Nell’arco di pochi giorni è stato attivato in Todini Costruzioni un servizio capace di automatizzare tutti i flussi dei documenti aziendali (Document Flow).

Il cliente è rimasto soddisfatto delle funzionalità e della flessibilità della piattaforma. Tale piattaforma copre tutti i requisiti richiesti e individuati durante l’analisi preliminare documentale e archivistica.

 

«L’idea è quella di  fornire una soluzione affidabile, facile da implementare nei processi aziendali già esistenti di una organizzazione piccola e media, rapida da gestire, con un costo contenuto – dice Andrea Capitani, General Manager Iws – Il Content Flow Service aiuta a migliorare la gestione del  Business aziendale a partire dall’automatizzazione dei processi, archiviando i documenti e  protocollando la posta».

 

Lo sviluppo della piattaforma permette una estrema customizzazione, ma soprattutto la gestione autonoma delle attività dopo aver usufruito dell’assistenza per la configurazione iniziale del sistema e della formazione erogata direttamente dal personale specializzato di IWS.

 

Ciò che differenzia il Content Flow Service da altre soluzioni per il documentale sul mercato è  la componente RML – Records Management Layer applicata al software ARXivar, determinante per impostare in modo ottimale flussi e procedure aziendali.

 

«Il Content Flow Service apre alla piattaforma ARXivar ulteriori nuovi ambiti applicativi che saranno di sicuro interesse per le aziende sempre alla ricerca di metodi innovativi e tecnologie all’avanguardia» dice Stefano Nalesso Direttore Commerciale di AbleTech.

 

Per qualsiasi informazione scrivi a cfs@iwsconsulting.it

 

 

Read More
Redazione 1 Giugno 2017 0 Comments