Schița de curs
Introducere în Machine Learning aplicat
- Învățarea statistică vs. Machine learning
- Iterație și evaluare
- Compromisul Bias-Variance
- Învățarea supervizată vs. ne-supervizată
- Probleme rezolvate cu Machine Learning
- Train Validation Test – flux de lucru ML pentru a evita overfitting-ul
- Fluxul de lucru al Machine Learning-ului
- Algoritmi de machine learning
- Alegerea unui algoritm adecvat problemei
Evaluarea algoritmilor
-
Evaluarea predicțiilor numerice
- Măsuri de acuratețe: ME, MSE, RMSE, MAPE
- Stabilitatea parametrilor și a predicțiilor
-
Evaluarea algoritmilor de clasificare
- Acuratetea și problemele acesteia
- Matricea confuziei
- Problema clasei neechilibrate
-
Vizualizarea performanței modelului
- Curba de profit
- Curba ROC
- Curba lift
- Selectarea modelului
- Tuning-ul modelului – strategii de căutare pe grilă
Prepararea datelor pentru modelare
- Importul și stocarea datelor
- Înțelegerea datelor – explorări de bază
- Manipularea datelor cu biblioteca pandas
- Transformările datelor – wrangling-ul datelor
- Analiza exploratorie
- Observațiile lipsă – detectare și soluții
- Outliers – detectare și strategii
- Standarizarea, normalizarea, binarizarea datelor
- Recodificarea datelor calitative
Algoritmi de machine learning pentru detectarea outlier-ilor
-
Algoritmi supervizați
- KNN
- Ensemble Gradient Boosting
- SVM
-
Algoritmi ne-supervizați
- Bazat pe distanță
- Metode bazate pe densitate
- Metode probabilistice
- Metode bazate pe modele
Înțelegerea învățării adâncă (Deep Learning)
- Prezentare a conceptelor de bază ale Deep Learning-ului
- Diferențierea între Machine Learning și Deep Learning
- Prezentare a aplicațiilor Deep Learning-ului
Prezentare a rețelelor neuronale (Neural Networks)
- Ce sunt rețelele neurale?
- Rețele neuronale vs. modele de regresie
- Înțelegerea fundațiilor matematice și mecanismelor de învățare
- Construirea unei rețele neurale artificiale
- Înțelegerea nodurilor neurale și a conexiunilor acestora
- Lucrul cu neuroni, layere, și date de intrare și ieșire
- Înțelegerea perceptronelor unui singur strat (Single Layer Perceptrons)
- Diferențele dintre învățarea supervizată și ne-supervizată
- Înțelegerea rețelelor neuronale feedforward și feedback
- Înțelegerea propagării forward și backpropagation-ului
Construirea modelurilor simple de deep learning cu Keras
- Crearea unui model Keras
- Înțelegerea datelor tale
- Specificarea modelului de deep learning
- Compilarea modelului
- Ajustarea modelului (fitting)
- Lucrul cu datele de clasificare
- Lucrul cu modele de clasificare
- Utilizarea modelelor tale
Lucrul cu TensorFlow pentru deep learning
-
Prepararea datelor
- Descărcarea datelor
- Prepararea datelor de antrenament
- Prepararea datelor de testare
- Scalarea intrărilor (inputs)
- Utilizarea placeholder-urilor și variabilelor
- Specificarea arhitecturii rețelei neuronale
- Utilizarea funcției de cost (cost function)
- Utilizarea optimizatorului (optimizer)
- Utilizarea inițializatorilor (initializers)
- Ajustarea rețelei neuronale (fitting)
-
Construirea grafului (building the graph)
- Inferență (inference)
- Pierdere (loss)
- Antrenament (training)
-
Antrenarea modelului
- Graful (the graph)
- Sesiunea (the session)
- Bucla de antrenament (train loop)
-
Evaluarea modelului
- Construirea grafului de evaluare (building the eval graph)
- Evaluarea cu ieșirea de evaluare (evaluating with eval output)
- Antrenarea modelului la scară largă (training models at scale)
- Vizualizarea și evaluarea modelelor cu TensorBoard
Aplicarea învățării adâncă (Deep Learning) în detectarea anomalilor (anomaly detection)
-
Autoencoder
- Arhitectura Encoder-Decoder
- Pierdere de reconstrucție (reconstruction loss)
-
Autoencoder variational (Variational Autencoder)
- Inferența variatională (variational inference)
-
Rețea adversarială generativă (Generative Adversarial Network)
- Arhitectura Generator-Discriminator
- Abordări de AN folosind GAN (approaches to AN using GAN)
Framework-uri de tip ensemble
- Combinarea rezultatelor din metode diferite
- Bootstrap Aggregating (bagging)
- Averaging outlier score (scor mediu de outlier)
Cerințe
- Experiență cu programarea Python
- Familiaritate de bază cu statistică și concepte matematice
Audiență
- Developeriași
- Cercetători de date
Mărturii (5)
Formarea a oferit o prezentare interesantă a modelelor de învățare profundă și a metodelor conexe. Subiectul era destul de nou pentru mine, dar acum simt că am o idee despre ce pot implica AI și ML, în ce constau acești termeni și cum pot fi utilizați în mod avantajos. În general, mi-a plăcut abordarea de a începe cu contextul statistic și cu modelele de învățare de bază, cum ar fi regresia liniară, punând în special accentul pe exercițiile intermediare.
Konstantin - REGNOLOGY ROMANIA S.R.L.
Curs - Fundamentals of Artificial Intelligence (AI) and Machine Learning
Tradus de catre o masina
Anna a întrebat mereu dacă avem întrebări și a încercat mereu să ne facă să fim mai activi, punând întrebări, ceea ce ne-a făcut pe toți să ne implicăm cu adevărat în formare.
Enes Gicevic - REGNOLOGY ROMANIA S.R.L.
Curs - Fundamentals of Artificial Intelligence (AI) and Machine Learning
Tradus de catre o masina
Mi-a plăcut modul în care este îmbinat cu practicile.
Bertan - REGNOLOGY ROMANIA S.R.L.
Curs - Fundamentals of Artificial Intelligence (AI) and Machine Learning
Tradus de catre o masina
Experiența / cunoștințele vaste ale formatorului
Ovidiu - REGNOLOGY ROMANIA S.R.L.
Curs - Fundamentals of Artificial Intelligence (AI) and Machine Learning
Tradus de catre o masina
VM este o idee bună
Vincent - REGNOLOGY ROMANIA S.R.L.
Curs - Fundamentals of Artificial Intelligence (AI) and Machine Learning
Tradus de catre o masina