
Un percorso formativo della durata di 10 giornate e Certification Day per trasformare i Big Data in Smart Data e creare soluzioni concrete per migliorare i propri processi decisionali, di analisi, produttivi e di business.
Con il termine Big Data Analytics ci si riferisce al processo di raccolta, analisi, modellizzazione e integrazione di grossi insiemi di dati di diversa tipologia e provenienza per individuare modelli, correlazioni, tendenze del mercato ed altre informazioni utili alle organizzazioni per prendere decisioni sempre più consapevoli, veloci ed efficaci.
La capacità di utilizzare efficacemente le metodologie e gli strumenti del Big Data Analytics consentono quindi all’impresa di ottenere un forte vantaggio competitivo che si riflette nella possibilità di aumentare l’efficienza, la velocità e la flessibilità della propria supply chain o di progettare nuovi prodotti e servizi, sino alla creazione di modelli di business innovativi.
Obiettivi del percorso
Il percorso ha l’obiettivo di sviluppare le competenze teoriche e pratiche per:
- Comprendere come impostare e implementare progetti di Big Data Analytics, attraverso la conoscenza delle infrastrutture abilitanti e delle classi di algoritmi da utilizzare
- Acquisire le metodologie e gli strumenti di raccolta, organizzazione, manipolazione ed analisi dei dati al fine di estrarre da essi valore ed informazioni utili (Data Mining)
- Realizzare soluzioni di visualizzazione per supportare la comprensione dei dati e per comunicare informazioni in maniera precisa ed efficace, al fine di migliorare e velocizzare i processi decisionali anche in ambienti complessi (Data Visualization)
- Impadronirsi delle principali tecniche di analisi statistica e di machine learning per apprendere dai dati e costruire modelli analitici di classificazione, comprensione e predizione di fenomeni di interesse.
Destinatari
- Manager e Professional IT
- Specialisti di analisi dati, Ingegneri di processo, Energy e Quality Specialist
- Manager e Professional del miglioramento dei processi aziendali che vogliono essere in grado di utilizzare con efficacia le metodologie e gli strumenti del Data Science
- Manager e Professional che vogliono acquisire le capacità di costruire concretamente modelli data driven a supporto delle decisioni di business
Il format
- Test di ingresso on line per la valutazione del possesso delle conoscenze di base in ambito statistico e di programmazione necessario alla partecipazione
- Didattica interattiva con simulazioni ed esercitazioni pratiche con l’uso dei software Phyton™, Jupiter, Pandas e Power BI
- Analisi di case history
- Impostazione e realizzazione di un Project Work aziendale
- Sessione condivisa dedicata all’impostazione del Project Work
- Sessione di tutoring da remoto durante la realizzazione del progetto
- Test finale on line
- Celebration day: presentazione dei progetti svolti e consegna Certificato
- Il percorso si svolge in modalità blended in presenza ed in modalità live webinar
Prerequisiti
- Superamento del Test di ingresso finalizzato alla valutazione del possesso delle conoscenze di base in ambito statistico e dei linguaggi di programmazione previsti (Pandas, Python™, Jupiter e Power BI)
- Accesso a Windows e software Pandas, Python™, Jupiter e Power BI
Contenuti
- Big Data: la centralità dei dati come fattore strategico per lo sviluppo del business
- Elaborare i dati tramite strumenti di statistica industriale
- Strumenti di analisi inferenziale & model fitting
- Metodi di programmazione
- Data Collection
- Big Data
- Data Visualization
- Machine Learning
Guarda il Programma Dettagliato
Big Data: la centralità dei dati come fattore strategico per lo sviluppo del business
- Data Driven Economy e Data Driven Decision: il ruolo dei dati e delle informazioni nelle scelte aziendali
- Le applicazioni della Big Data Analysis
- Data Science e Data Analysis
- Il ruolo del Data Scientist nell’organizzazione aziendale
Elaborare i dati tramite strumenti di statistica industriale
- Introduzione alla statistica ed elementi di gestione dell’incertezza
- Modelli di analisi statistica
- Stratificazione e clustering dei campioni
- Sintesi statistica numerica: indicatori di tendenza centrale e di dispersione
- Sintesi statistica grafica: la costruzione di report efficaci (Istogrammi, Box-Plot & Whiskers, scatterplot)
- Analisi dei comportamenti dei campioni: le principali distribuzioni di probabilità continue e discrete
- Analisi di Capability dei processi
Strumenti di analisi inferenziale & model fitting
- Verifica dei comportamenti dei campioni: analisi degli outliers e delle anomalie
- Utilizzo industriale ed applicazioni del Test di Ipotesi
- Utilizzo ed interpretazione dell’ANOVA
- Utilizzo ed interpretazione dei modelli regressivi
- Analisi dei pattern e sintesi del comportamento dei residui (MAD, CV, ME,…)
- Cenni alle Carte di Controllo per la verifica dei comportamenti
Metodi di programmazione
- Introduzione ai linguaggi di programmazione: Phyton™ e l’ambiente Jupiter Notebook
- Costrutti e sintassi di base tipici del programma Phyton™ dai tipi di dato alle funzioni
- Librerie: Numpy, per operazioni su vettori e matrici; matplotlib per la visualizzazione
- La libreria di Data Analysis Pandas per la manipolazione dei dati: importazione, analisi, estrazione, ordinamento, raggruppamento ed esportazione dei dati.
Data Collection
- Strategie di raccolta, sistematizzazione e integrazione di dati eterogenei
- Modelli e formati dati principali: SQL vs NoSQL, CSV, Json, immagini, ecc.
- Tool di scraping (librerie SW e strumenti grafici interattivi) e REST API
Big Data
- Introduzione e concetti di base
- Data preparation: pulizia dei dati, normalizzazione, gestione dei dati mancanti e delle anomalie
- Criticità, evoluzione, strumenti e piattaforme per la gestione di Big Data
Data Visualization
- Introduzione all’information visualization (infoview): scopo, principi fondamentali, pattern e antipattern
- Strumenti per la Data Visualization: mockup, wireframe & UI Prototyping
- Realizzazione di dashboard interattive con Power BI
- Modelli e strumenti per la valutazione di interfacce e dashboard
Machine Learning
- Introduzione al Machine Learning ed alle metriche valutative per problemi discreti e continui
- Vantaggi e svantaggi dei sistemi supervised ed unsupervised, applicabilità delle diverse metodologie a seconda dei contest
- Classificazione e regressione
- Classificatori: k-Nearest Neighbor, Support Vector Machine, Random Forest
- Clustering (k-means) e Riduzione di dimensionalità (PCA)
- Introduzione al Deep Learning, Reti Neurali Convolutive, Reti Ricorrenti e Reinforcement Leraning
Faculty

- Professore del Politecnico di Milano, Membro della Faculty del MIP Business School
- IASSC Certified Black Belt
- Certified Master Black Belt al MIP
- Consulente Esperto specializzato in Operational Excellence con approcci di tipo Lean e Six Sigma per il miglioramento dei processi e delle strutture di costo aziendali in tutti i settori industriali
- Lean Six Sigma Program Manager per i percorsi di Certificazione Master Lean Six Sigma di Bonfiglioli Consulting
- Autore di numerose pubblicazioni tra cui:
- Quantitative Methods for Quality Management – Brun, Casadio Strozzi, Fan – Esculapio Editore (2012) – III edizione 2020

- Docente dei corsi Web Data Science e Informatica presso l’Università di Modena e Reggio Emilia
- Responsabile scientifico del progetto Uniform Representation of Curricular Attributes (URCA) finanziato da ANVUR
- Team member in progetti di ricerca sia a livello internazionale (ECSEL project MANTIS, ARTEMIS project EMC2, OCOPOMO project 248128, SaveMe project 234027) che nazionale (IDEAS PRIN 2012, GAUSS PRIN 2015, AMINSEP PNRM 2017)
- Presidente della track Web Technologies della conferenza ACM Symposium on Applied Computing (SAC).
- Autore di numerose pubblicazioni tra cui:
-
- Semantics-Driven Programming of Self-Adaptive Reactive Systems, «International Journal Of Software Engineering And Knowledge Engineering», 2020,
- Collaborative practices and multidisciplinary research: The dialogue between entrepreneurship, management, and data science, in: Fini, Riccardo, Rethinking entrepreneurship education: the role of collaborative practices and innovation, Zurigo, Springer International Publishing, 2018,
- Agile knowledge engineering for mission critical software requirements in: Synergies Between Knowledge Engineering and Software Engineering, Berlino, Springer Verlag, 2018

- Assegnista di ricerca presso il Dipartimento di Matematica ed Informatica dell’Università degli Studi di Ferrara
- Dottorato di ricerca in Matematica nell’ambito dell’Analisi Numerica
- Principali temi di interesse:
- Ottimizzazione Stocastica
- Metodi del Gradiente
- Metodi Matematici per il Machine Learning

- Assegnista di ricerca presso l‘High Performance Real-Time Lab dell’Università di Modena e Reggio Emilia
- Dottorato di ricerca in Matematica nell’ambito dell’analisi e ottimizzazione delle prestazioni di applicazioni real-time. Tra i campi maggiormente approfonditi:
- Smart City
- Industria 4.0
- Automotive
- Principali temi di interesse:
- Applicazioni real-time
- Intelligenza artificiale per sistemi embedded