IWS primo Business Partner italiano di Stibo Systems, società specializzata in MDM

IWS Consulting primo Business partner italiano di Stibo Systems, società specializzata in Master Data Management.

 

Roma, 8/01/2020 – Stibo Systems, l’unica società specializzata in Master Data Management (MDM) trova in IWS Consulting il partner ideale per investire nel mercato italiano. Condividendo un approccio incentrato sul Business, focalizzato sulle persone e mantenendo inoltre la centralità dell’obiettivo culturale legato alla materia dell’Analisi dei Big Data.

 

«Vogliamo rafforzare la nostra missione e il nostro approccio alla materia degli analytics, introducendo questa innovazione presso quelle aziende che vogliono identificarsi con l’industry 4.0 – dichiara il General Manager IWS, Andrea Capitani – facendo notare come l’analisi dei dati più efficace non può prescindere dalla qualità del dato di partenza (Data Quality). Essere i primi a presentare questo approccio ci dà la possibilità di rendere disponibili ai nostri clienti in tempi brevi delle soluzioni all’avanguardia e uniche».

 

La partnership tra IWS e Stibo sarà caratterizzata da formazione continua affinché tutta la rete sales e pre-sales possa essere immediatamente un punto di riferimento per i progetti dei clienti. Inoltre, durante l’anno saranno organizzati eventi verticali, aperti al pubblico, nel quale verranno descritti possibili approcci per diverse Aree di Business, come BiM, banking, insurance, healthcare.

 

«Siamo davvero entusiasti di dare il benvenuto a IWS Consulting come nostro primo business partner in Italia. Il nostro obiettivo è quello di entrare in questo nuovo mercato selezionando partner di eccellenza che supportino la nostra presenza e la nostra crescita in EMEA – dichiara Christian Oertzen, Presidente EMEA di Stibo Systems – e IWS è sicuramente uno di questi. La combinazione vincente tra la soluzione di Master Data Management di Stibo Systems e la conoscenza di IWS in ambito MDM e Big Data Analytics, consentirà ai clienti di utilizzare al meglio i propri dati, potendo contare su una singola fonte dati di qualità ed un’unica piattaforma».

 

Read More
Redazione 8 Gennaio 2020 0 Comments

Costanza, Machine Learning e Business

Costanza, Machine Learning e Business

di Alberto Marocchino, Analytics Area – Area Manager

 

Andare in palestra, un solo giorno per venti minuti, tornare a casa e guardarsi allo specchio:

— ‘Nulla’

 

Andare in palestra, un solo giorno per dieci ore, tornare a casa e guardarsi allo specchio:

— ‘Nulla’

 

Andare in palestra in modo costante, senza scuse e con metodicità: noterò solo piccoli cambiamenti quotidiani, ma i miei muscoli cresceranno costantemente.

 

Se caliamo questa metafora nel mondo #Analytics, in una realtà aziendale industry 4.0, sebbene il #MachineLearning possa dare risultati immediati, la sua forza si esprime maggiormente nel continuo utilizzo.

 

 

Il Machine Learning migliora costantemente autoapprendendo, ogni giorno di più, dando risultati sempre più accurati, aiutando le aziende in maniera trasversale: dalle automazioni, al Business, al Finance. La costanza paga, anche in ambito #IoT, #IntelligenzaArtificiale ed #RPA.

 

Il nostro ruolo è un po’ come quello del personal trainer, supportando le aziende con il Machine Learning per le più svariate situazioni. Tra le più comuni: l’identificazione di frodi, di Outlier (ovvero di tutte quelle situazioni ‘strane’, un qualcosa che accade al di fuori del comportamento ordinario) e il forecasting (es. previsioni puntuali di spesa e clienti).

 

L’obiettivo finale è quello di ottimizzare. Si parla di contrazione economica. Le contrazioni spesso ci portano ad ottimizzare: fare le migliori scelte con pochissimo scarto così da rimanere competitivi, e forse, anche se sembra strano, aumentare i profitti.

 

Voglio citare Osservatori Digital Innovation del Politecnico di Milano che, in una recentissima ricerca dedicata al mercato dei #BigData e #Analytics, riporta: “[…] Le stime in nostro possesso ci dicono che se per i prossimi 2 anni le aziende focalizzeranno gli investimenti su tecnologie come Industrial IoT, Industrial Analytics e Advanced Automation, in un periodo più lungo cresceranno gli investimenti anche in Cloud e Additive Manufacturing, diventando le tecnologie di maggiore interesse[..]”.

 

Le aziende stanno esportando gli ultimi ritrovati tecnologici e informatici dalle università e dai centri di ricerca per riqualificare il lavoro: da procedure ripetitive e noiose, ad impiegati qualificati che controllano processi automatici.

 

La mia vision a breve termine? Unire processi di robotica #RPA con #AI, dotare la robotica ‘il corpo’ di un ‘cervello’ così da automatizzare sempre di più i processi aziendali migliorandone l’efficienza e diminuendo gli errori, con software in grado di imparare costantemente e adattarsi istantaneamente alle esigenze che cambiano.

 

La mission che secondo me andrebbe perseguita è quella di personalizzare il servizio al cliente automatizzando i processi, adattandoli alle esigenze di ogni persona, alle sue abitudini e al suo stile di vita. È una e vera propria rivoluzione, silente, ma continua. Dal telefono, ai cellulari, agli smartphone: adesso è l’ora delle automatizzazioni intelligenti su misura!

Read More
Redazione 2 Gennaio 2020 0 Comments

GDPR per il settore dell’E-commerce: la rielaborazione dei dati in modo conforme alla norma.

Trattare il tema del GDPR per il settore dell’E-commerce: la rielaborazione dei dati grezzi atti a popolare i Data Warehouse in modo conforme alla norma.

 

Ad un anno dall’entrata in vigore del nuovo Regolamento per il trattamento dei dati, il team dell’Area Analytics di IWS Consulting, di concerto con l’Area Document Management ci spiegano l’approccio usato con il cliente.

 

Il 25 maggio 2018 è entrato in vigore il Regolamento UE 2016/679, noto come “GDPR” (General Data Protection Regulation), in materia di trattamento dei dati personali. Il GDPR si occupa del diritto alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati.

 

Il Regolamento, tuttavia, non ha modificato in modo sostanziale i concetti e i principi fondamentali della legislazione in materia di protezione dei dati, come ad esempio il rispetto del diritto delle persone, la finalità del trattamento dei dati, la necessità e la proporzionalità del trattamento, la durata limitata, la sicurezza e la riservatezza.

 

Tra i nuovi principi introdotti, parimenti importanti, di seguito alcuni:

 

• Il principio di accountability (o principio di responsabilizzazione);

• La minimizzazione dei dati;

• Il diritto all’oblio;

• il diritto alla portabilità dei dati;

• La notificazione dei data breach al Garante e, in talune ipotesi, agli interessati.

 

Una delle conseguenze della declinazione del Regolamento europeo nella normativa italiana, naturalmente, è stato il repentino adeguamento che le aziende che acquisiscono e trattano dati personali, e soprattutto “particolari”, hanno dovuto effettuare per risultare compliant: tanti piccoli aggiustamenti relativi ai propri sistemi software. IWS Consulting, già attenta ai problemi della riservatezza e della sicurezza del trattamento del dato, si è volta alle nuove sfide del mercato lavorando a un progetto inerente la compliance del trattamento dei dati con il GDPR per una nota azienda internazionale, leader nel mercato dello shopping on-line e dell’informazione, coinvolta dall’adeguamento normativo.

 

La soluzione, incentrata su uno dei nuovi concetti introdotti dal GDPR, quello di Privacy By Design, ha previsto la programmazione di misure di protezione dei dati e delle relative applicazioni informatiche di supporto, partendo dalla fase di progettazione di ciascun processo aziendale.
In sintesi, i dati processati sono stati quelli indispensabili allo svolgimento degli obblighi professionali e l’accesso alle informazioni è stato limitato esclusivamente agli addetti allo svolgimento dell’elaborazione.

 

Tale progettazione è basata sui seguenti steps:

Superata la fase di progettazione, elaborata step by step in maniera sinergica con il Cliente, si è passato allo stadio successivo, quello applicativo. In pochi mesi il team dell’Area Analytics è riuscito a raggiungere l’obiettivo prefissato: una rielaborazione dei dati grezzi atti a popolare i Data Warehouse conformi alla normativa GDPR, anonimizzando i dati sensibili degli utenti e fornendo solamente le informazioni strettamente necessarie ai vari reparti aziendali. Effettuando tale reingegnerizzazione, inoltre, sono state apportate modifiche sul design progettuale, linearizzando e de-stratificando l’ambiente As-Is.

 

La soluzione implementata ha portato i seguenti vantaggi:

 

• Diminuzione del tempo di elaborazione;

• Migliori performance per gli utenti finali.

 

Per raggiungere tale obiettivo, è stato utilizzato il tool applicativo “Knime”, partner storico di IWS che, grazie alle sue funzionalità, sia in ambito ETL che B.I., ha consentito uno sviluppo lineare e leggibile dei flussi sviluppati. Il progetto, grazie alle sue scelte innovative, agli ottimi risultati ottenuti a livello di tempistiche di realizzazione, di risultati complessivi di realizzazione e di livello di soddisfazione del Cliente, è stato presentato come esempio di “buona pratica” all’evento ‘KNIME SPRING SUMMIT’, svolto lo scorso mese di marzo a Berlino.

Read More
Redazione 22 Maggio 2019 0 Comments

Modernization of Data Analysis with Knime Analytics Platform

Modernization of Data analysis

 

of Diego Facchini, IT Director HSE24 Spa. and Marco Ragogna, Head of Pre Sales Iws Consulting srl.

 

Case History presented at Knime Spring Summit 2019, Berlin 18-22 March 2019

 

IWS Consulting is an Italian advisory company running efficiently a business unit dealing with Data warehouse, analytics and Big data projects since 4 years. HSE24 is a best of breed company in the retail television market. Originally grewn up in Germany, in this last decade has opened branches in many european country. Among them, HSE24 Italy is active since seven years, with a brilliant every year overachievement in expected sales that set HSE24 high in the chart of the most market interesting companies.

 

During this last year HSE24 Italy felt the need to address in a more rationalized way their approach to Data Analysis. Their previous existing environment suffered from stratification of different processes being implemented separately, and had several pains focused on specific elements like performances for final user, the need for a better organization of data governance and to respect new compliance rules for master data; furthermore there was a big push to reorder the business logic for the data integration flows and the deduplication of the relational entities involved in the environment.

 

Case History:

 

A new Data Analysis solution was redefined, designed and implemented, in order to not only have a more rationalized environment but also to be ready to move the focus of the platform from operational and descriptive analytics to a more statistical approach, the use of predictive analytics and machine learning. Knime Analytics Platform and Server were used as core element technology for the new implementation.

 

Added to IWS consulting methodologies and best practices, the final result brought a large number of benefits like:

– minus 30% reduced number of data jobs

– minus 40% on deduplication of preexisting entities

– minus 25% data integration and preparation execution timing

– satisfy the GDPR Compliance

– improve definitely the architecture of the solution

– ensure better performances to final users

 

Developement processes and deploying to production were managed through iterative ‘agile’ working cycles, combining in a single workgroup customer business knowledge and advisory consulting processes implementation. The new environment is now used for all the initiatives focused on prediction and machine learning.

 

Next steps:

 

More projects are starting over to improve business perspective for HSE24, covering all the main aspects of Bayesian statistics and machine learning, with many more use cases in roadmap. The latest initiatives focus on Market Basket Analysis, Unsupervised clustering compared to predefined clusters for Customers, prediction and classification for Programming, Buying and Sales.

Read More
Redazione 22 Marzo 2019 0 Comments

La gestione dei contenuti dati utente Personali o Aziendali e i rischi.

La gestione dei contenuti dati utente Personali o Aziendali e i rischi

di Christopher Shelton-Agar, Data Rover Director

 

In questo articolo evidenziamo le differenze tra l’approccio tradizionale della gestione delle quote di archiviazione rispetto alle esigenze che le aziende hanno oggi su come assumere il controllo, e trarre il massimo dei benefici in termini di Business, sull’enorme mole di dati generati dagli utenti che naturalmente non strutturati.

 

Sintesi

 

 

La realtà vissuta attualmente nelle aziende, indipendentemente dalle dimensioni, dal luogo di lavoro o dal settore di attività in cui operano, necessitano di uno spazio di storage prontamente disponibile e affidabile, per archiviare i dati in modo da gestire correttamente e sviluppare le proprie attività.

 

Immaginate che solo pochi decenni fa i dati aziendali erano cartacei; ora invece tutto è memorizzato in file elettronici che possono essere facilmente spostati o consegnati, alla velocità della luce, in qualsiasi luogo e a qualsiasi destinatario. Questa forse può considerarsi come una meravigliosa evoluzione della tecnologia e della comunicazione, ma questa evoluzione si porta dietro un insieme completamente nuovo di pericoli e rischi.

 

Lo spazio di archiviazione è diventato essenzialmente molto più economico. Tuttavia, bisogna tenere conto che le esigenze e/o l’utilizzo dello spazio richiesto nelle aziende è in costante aumento. Quindi, in realtà, i costi per le aziende sono come in precedenza, se non maggiori. La gestione dei dati non strutturati e il suo contenuto è tutta un’altra storia. La stragrande maggioranza delle aziende ha poca o nessuna idea di quali dati possieda in realtà e di cosa è responsabile.

 

Mentre il mondo si muove progressivamente verso un ambiente molto sensibile alla proprietà dei dati, in cui privacy e protezione sono diventati la chiave contro l’ostilità proveniente da ransomware, virus, malware e terrorismo IT, vediamo chiaramente che la richiesta di gestione dello storage sta cambiando: da un controllo stretto sullo spazio puro consumato e un metodo per limitare lo spreco, ad un esame molto più raffinato di quello che si trova effettivamente all’interno dello spazio disponibile e dell’eventuale utilizzo dei suoi contenuti.

 

Dunque, quello che è importante capire prima di ogni altra cosa è che, al giorno d’oggi, il rischio aumenta se questo contenuto viene lasciato incustodito…

Read More
Redazione 20 Febbraio 2019 0 Comments

Knime: nuove funzionalità in arrivo con la piattaforma Analytics 3.7.0. e Server 4.8.0.

Iws Consulting come partner di Knime lo scorso 3 dicembre ha partecipato alla presentazione in anteprima dell’evoluzione della piattaforma analytics. Il 6 Dicembre 2018, in occasione del Nicholas Day, la casa tedesca rilascerà delle nuove features riguardanti sia la parte analitica che quella server.

di Andrea Macera, Senior Data Engineer and Data Analyst.

 

 

Knime è una piattaforma gratuita e open-source il cui utilizzo è orientato principalmente all’analisi, reporting e integrazione dei dati, integrando vari componenti, messi a disposizione dal tool, per machine learning e data mining attraverso il concetto di pipeline di dati modulari. Un’interfaccia grafica e l’uso di JDBC consentono l’assemblaggio di nodi che combinano diverse sorgenti di dati, compresa la pre-elaborazione (ETL: Extraction, Transformation, Loading), per la modellazione, l’analisi e la visualizzazione dei dati senza, o con una programmazione minima.

 

In questo articolo illustreremo queste nuove funzionalità inserite nelle nuove versioni KNIME Analytics 3.7.0 e KNIME Server 4.8.0.

 

Iniziamo con la descrizione delle nuove features introdotte dal tool inerenti alla nuova versione Analytics:

Sono stati introdotti nuovi nodi di calcolo statistico, che utilizzando algoritmi machine learning, riescono a fornire dati utili per effettuare analisi predittive con elevate prestazioni. Più nello specifico, l’integrazione con XGBoost é interessante sapere che è disponibile nella nuova versione di KNIME AP. (Fig. 1).

 

Si intensificano le possibilità di interazione con Tableau: con il nuovo rilascio di KNIME Analytics Platform è stata estesa l’integrazione per aggiungere il supporto per nuovi formati di date e time e sia per supportare il formato Hyper di Tableau. Questo consente di scrivere file in formato Hyper cosí come inviare i file direttamente a Tableau Server. Nella versioni precedenti era disponibile esclusivamente il formato TDE con le stesse funzionalitá di scrittura del file e di invio al Tableau Server (fig. 2).

Da oggi, Knime, consente di acquisire files direttamente da Google Driver. Il nodo predisposto a tale funzione evita le fastidiose operazioni di download/update dei dati, consentendo in maniera rapida e semplice il loro accesso. Ciò facilità la gestione di files, presenti su path condivisi, garantendo la coerenza delle informazioni presenti su essi (fig. 3).

Ti è mai successo che durante lo sviluppo di un job Knime, ti accorgi che ti occorre un particolare script per poter eseguire formule matematiche complesse; oppure che ti occorrono particolari funzionalità e che tali non sono presenti tra i molteplici nodi messi a disposizione dal tool?

Con l’arrivo della versione Analytics 3.7.0, ciò non rappresenta più un problema: l’integrazione con Python, presente da tempo in KNIME Analytics Platform, ma ciò che hanno reso disponibile nell’ultima release é l’integrazione con Jupyter. Infatti ora é possibile importare ed eseguire codice disponibile in Jupyter notebooks (fig. 4).

L’ultima, ma non per importanza, grande novità introdotta in questa nuova versione è l’ampliamento della connettività con il mondo BIG DATA. Ormai l’uso dei big data, sta diventando sempre più indispensabile per le aziende e Knime consente la gestione di essi in modo ottimale, utilizzando connettori che consentono la compatibilità con i più grandi leader mondiali di tool big data (es. Cloudera, Microsoft Azure HDInsight, ecc..). È stata aggiunta la possibilitá di mixare job PySpark con il workflow che lavora su Spark. Inoltre, ulteriore importante supporto é quello con Apache Livy per controllare i job di Spark nell’ambiente big data, cosí come il supporto di Spark 2.4. (fig. 5).

 

Dopo aver descritto le principali caratteristiche delle nuove features analitiche implementate nella versione KNIME Analytics 3.7.0, passiamo a quelle della versione KNIME Server 4.8.0.

 

La differenza sostanziale di cui ci rendiamo subito conto è nell’utilizzo di executor distribuiti che danno la possibilitá di scalare con l’esecuzione dei workflow per il KNIME Server. Ciò consente maggiori vantaggi (speed-up e throughput) quando si esegue un elevato numero di operazioni in parallelo (fig. 6).

 

Con il lancio sul mercato delle 2 nuove versioni, Knime si proietta ad aggiudicarsi un posto accanto ai grandi competitor mondiali. Difatti, rende automatizzabile e in maniera semplice e intuitiva, il ciclo di vita del dato, partendo dall’acquisizione di esso fino all’analisi delle informazioni. Attraverso l’iterazione con varie tecnologie, rende il tool portatile e adatto ad ogni esigenza.

Read More
Redazione 10 Dicembre 2018 0 Comments

IWS Consulting al CDTI per coordinare il gruppo di lavoro su Big Data e Data Lake

Iws Consulting prosegue l’attività, iniziata lo scorso Gennaio presso CDTI – Club Dirigenti Tecnologie dell’Informazione di Roma,  per il coordinamento del gruppo di lavoro sul tema Big Data Analytics e Data Lake.

 

Iws Consulting ha organizzato alcuni appuntamenti, con cadenza mensile, presieduti dal General Manager di IWS Andrea Capitani, coadiuvato dal Responsabile Presales di IWS, Marco Ragogna.

 

Le finalità degli incontri rispondono a molteplici esigenze, come fare ordine su tematiche, definizioni e tecnologie innovative dedicate all’analisi dei dati, e creare un libro bianco finale rivolto alla PA, composto da linee guida ed una serie di best practice su usi e metodologie relative a Big Data e Nosql.

 

 

Per scaricare un estratto delle slide presentate lo scorso 26 Marzo clicca qui

Per approfondimenti e informazioni su come poter partecipare al prossimo appuntamento, scrivere a a.capitani@iwsconsulting.it

Read More
Redazione 3 Aprile 2018 0 Comments

Industria 4.0: gli incentivi fiscali e il supporto di Iws Consulting ai propri clienti

Industria 4.0 (I4.0) ovvero la Quarta Rivoluzione Industriale che vede protagonista l’organizzazione dei processi delle aziende basati sulle ultime tecnologie e su dispositivi in grado di comunicare autonomamente tra di loro.

 

Il piano nazionale Industria 4.0 presentato il 21 settembre 2016, ha l’obiettivo di incentivare gli investimenti verso tecnologie e beni, aumentare la spesa in Ricerca, Sviluppo, Innovazione e Formazione.

 

Erano stati previsti incentivi fiscali per 13 miliardi di euro distribuiti in 7 anni dal 2018 al 2024 per la copertura degli investimenti privati sostenuti.

 

Iws Consulting ti da consulenza per scegliere il miglior modo di innovare i tuoi flussi di lavoro usufruendo degli incentivi messi a disposizione dal Governo.

Read More
Redazione 30 Gennaio 2018 0 Comments

La 3à piattaforma acceleratore dell’innovazione: il punto di vista di Andrea Capitani

La 3à piattaforma acceleratore dell’innovazione: il punto di vista di Andrea Capitani.

 

Abbiamo chiesto ad Andrea Capitani, General Manager di Iws Consulting, dopo la sua partecipazione alla presentazione dell’ASSINTEL REPORT 2018.

 

“Iws Consulting, facendo fede al suo claim, Innovate. Work. Succeed., è pronta da circa un anno sul tema della 3à piattaforma come acceleratore di innovazione e che per sua stessa definizione è un servizio tecnologico che si è evoluto nell’ultimo decennio con la maturazione delle tecnologie Cloud, delle soluzioni Mobility, delle piattaforme di Analytics e Big data applicate ai social web. Creando tra questi quattro elementi virtuose sinergie con proposition mirate e prodotti di mercato o tecnologie  che ancora non sono  in commercio sul mercato italiano. Abbiamo ideato anche diversi framework proprietari che rappresentano metodologie di lavoro e che di volta in volta si adattano alle esigenze dei clienti. Il tutto in netta tendenza e in accordo con quanto descritto nell’Assinte Report 2018 presentato non più tardi di ieri”.

 

 

 

 

Read More
Redazione 30 Novembre 2017 0 Comments

Deutsche Boerse implementa soluzioni Trifacta e Cloudera per l’analisi dei Big data.

Deutsche Boerse implementa soluzioni Trifacta e Cloudera per l’analisi dei Big data.

 

Deutsche Boerse ha implementato il servizio Trifacta Wrangler Enterprise. Konrad Sippel, Responsabile del Content Lab di Deutsche Boerse, ha affermato che questo aiuterà l’azienda a sviluppare e implementare soluzioni basate sull’analisi dei dati in modo da poter attuare strategie mirate alla gestione dei rischi e prendere le decisioni in materia di investimenti e analisi di trading. 

La decisione è stata presa in virtù del pagamento della multa di 10,5 milioni di euro relativa alle accuse di insider trading, rivolte all’amministratore delegato, e di violazione delle regole sulla market disclosure. Deutsche Borse ha deciso di raggiungere una intesa con la Procura di Francoforte e di accettare le sanzioni in vista dell’interesse della società al più veloce ritorno alla normale operatività senza aumentare i ritardi posti dalle indagini.

Deutsche Borse afferma che Trifacta e Cloudera Data Science Workbench sono i due componenti fondamentali del loro viaggio alla datafication, ovvero la trasformazione di tutte le informationi aziendali in dati elaborabili.

 

Trifacta Wrangler Enterprise è la piattaforma di gestione dei dati leader nel settore. Con Wrangler Enterprise, le aziende riescono autonomamente con i propri analisti ad esplorare e trasformare i dati mantenendo la gestione centralizzata della sicurezza, della governance e dell’operatività. Accanto a questo trova appunto spazio il machine learning che è spesso fuori portata per i team di analisi nelle aziende. Qui dunque si posiziona Cloudera Data Science Workbench che rende l’azienda autonoma e veloce, nonchè sicura, nell’analisi dei dati. 

Fonte: https://www.bloomberg.com/news/articles/2017-09-28/deutsche-boerse-said-to-take-stake-in-big-data-company-trifacta

 

Read More
Redazione 2 Novembre 2017 0 Comments