

Data Scientist per Operational Excellence è un percorso formativo della durata di 10 giornate e Certification Day per trasformare i Big Data in Smart Data e creare soluzioni concrete per migliorare i propri processi decisionali, di analisi, produttivi e di business.
Obiettivi del percorso
Il percorso Data Scientist per Operational Excellence ha l’obiettivo di sviluppare le competenze teoriche e pratiche per:
Big Data Analytics
Comprendere come impostare e implementare progetti di Big Data Analytics, attraverso la conoscenza delle infrastrutture abilitanti e delle classi di algoritmi da utilizzare.
Data Mining
Acquisire metodologie e strumenti di raccolta, organizzazione, manipolazione ed analisi dei dati per poter prendere decisioni qualificate.
Data Visualization
Supportare la comprensione dei dati e comunicare informazioni in maniera precisa ed efficace per velocizzare i processi decisionali.
Analisi Statistica e Machine Learning
Apprendere dai dati e costruire modelli analitici di classificazione, comprensione e predizione di fenomeni di interesse.
Il nostro format vincente: trasformare la conoscenza in competenza

Formazione Learning by Doing
- Assessment iniziale online
- Formazione teorica
- Sessioni Learning by Doing con l’uso dei software Phyton™, Jupiter, Pandas e Power BI
Tutoring
- Tutoring individuale e di team durante tutto il corso
- Possibilità di tutoring personalizzato in azienda, da concordare per modalità e termini
Esperienza
- Realizzazione di un Project Work nella propria azienda
Certificazione
- Certificazione finale, sulla base dei risultati del Test e del Project Work sviluppato in azienda
Prerequisiti
- Superamento del Test di ingresso finalizzato alla valutazione del possesso delle conoscenze di base in ambito statistico e dei linguaggi di programmazione previsti (Pandas, Python™, Jupiter e Power BI)
- Accesso a Windows e software Pandas, Python™, Jupiter e Power BI
Contenuti del percorso Data Scientist per Operational Excellence
- Big Data: la centralità dei dati come fattore strategico per lo sviluppo del business
- Elaborare i dati tramite strumenti di statistica industriale
- Strumenti di analisi inferenziale & model fitting
- Metodi di programmazione
- Data Collection
- Big Data
- Data Visualization
- Machine Learning
Guarda il Programma Dettagliato
Big Data: la centralità dei dati come fattore strategico per lo sviluppo del business
- Data Driven Economy e Data Driven Decision: il ruolo dei dati e delle informazioni nelle scelte aziendali
- Le applicazioni della Big Data Analysis
- Data Science e Data Analysis
- Il ruolo del Data Scientist nell’organizzazione aziendale
Elaborare i dati tramite strumenti di statistica industriale
- Introduzione alla statistica ed elementi di gestione dell’incertezza
- Modelli di analisi statistica
- Stratificazione e clustering dei campioni
- Sintesi statistica numerica: indicatori di tendenza centrale e di dispersione
- Sintesi statistica grafica: la costruzione di report efficaci (Istogrammi, Box-Plot & Whiskers, scatterplot)
- Analisi dei comportamenti dei campioni: le principali distribuzioni di probabilità continue e discrete
- Analisi di Capability dei processi
Strumenti di analisi inferenziale & model fitting
- Verifica dei comportamenti dei campioni: analisi degli outliers e delle anomalie
- Utilizzo industriale ed applicazioni del Test di Ipotesi
- Utilizzo ed interpretazione dell’ANOVA
- Utilizzo ed interpretazione dei modelli regressivi
- Analisi dei pattern e sintesi del comportamento dei residui (MAD, CV, ME,…)
- Cenni alle Carte di Controllo per la verifica dei comportamenti
Metodi di programmazione
- Introduzione ai linguaggi di programmazione: Phyton™ e l’ambiente Jupiter Notebook
- Costrutti e sintassi di base tipici del programma Phyton™ dai tipi di dato alle funzioni
- Librerie: Numpy, per operazioni su vettori e matrici; matplotlib per la visualizzazione
- La libreria di Data Analysis Pandas per la manipolazione dei dati: importazione, analisi, estrazione, ordinamento, raggruppamento ed esportazione dei dati.
Data Collection
- Strategie di raccolta, sistematizzazione e integrazione di dati eterogenei
- Modelli e formati dati principali: SQL vs NoSQL, CSV, Json, immagini, ecc.
- Tool di scraping (librerie SW e strumenti grafici interattivi) e REST API
Big Data
- Introduzione e concetti di base
- Data preparation: pulizia dei dati, normalizzazione, gestione dei dati mancanti e delle anomalie
- Criticità, evoluzione, strumenti e piattaforme per la gestione di Big Data
Data Visualization
- Introduzione all’information visualization (infoview): scopo, principi fondamentali, pattern e antipattern
- Strumenti per la Data Visualization: mockup, wireframe & UI Prototyping
- Realizzazione di dashboard interattive con Power BI
- Modelli e strumenti per la valutazione di interfacce e dashboard
Machine Learning
- Introduzione al Machine Learning ed alle metriche valutative per problemi discreti e continui
- Vantaggi e svantaggi dei sistemi supervised ed unsupervised, applicabilità delle diverse metodologie a seconda dei contest
- Classificazione e regressione
- Classificatori: k-Nearest Neighbor, Support Vector Machine, Random Forest
- Clustering (k-means) e Riduzione di dimensionalità (PCA)
- Introduzione al Deep Learning, Reti Neurali Convolutive, Reti Ricorrenti e Reinforcement Leraning
Faculty




Sessioni: