Schița de curs
ZIUA 1 - REȚELE NEURALE ARTIFICIALE
Introducere și Structura RNA.
- Neuroni biologici și neuroni artificiali.
- Modelul unei RNA.
- Funcții de activare utilizate în RNA.
- Clase tipice de arhitecturi de rețea.
Fundamente Matematice și Mecanisme de Învățare.
- Revizitarea algebrei vectoriale și matriciale.
- Concepte de spațiu de stare.
- Concepte de optimizare.
- Învățare bazată pe corecția erorilor.
- Învățare bazată pe memorie.
- Învățare Hebbiană.
- Învățare competitivă.
Perceptroni cu un singur strat.
- Structura și învățarea perceptronilor.
- Clasificator de modele - introducere și clasificatori Bayesieni.
- Perceptron ca clasificator de modele.
- Convergența perceptronului.
- Limitările unui perceptron.
Rețele RNA cu Alimentare Înainte.
- Structuri ale rețelelor cu mai multe straturi de alimentare înainte.
- Algoritmul de propagare inversă.
- Propagare inversă - antrenament și convergență.
- Aproximare funcțională cu propagare inversă.
- Probleme practice și de proiectare ale învățării prin propagare inversă.
Rețele cu Funcții de Bază Radiale.
- Separabilitatea și interpolarea modelelor.
- Teoria Regularizării.
- Regularizare și rețele RBF.
- Proiectarea și antrenarea rețelelor RBF.
- Proprietăți de aproximare ale RBF.
Învățare Competitivă și RNA Auto-Organizatoare.
- Proceduri generale de clustering.
- Cuantizare Vectorială de Învățare (LVQ).
- Algoritmi și arhitecturi de învățare competitivă.
- Hărți auto-organizatoare de caracteristici.
- Proprietăți ale hărților de caracteristici.
Rețele Neuronale Fuzzy.
- Sisteme Neuro-Fuzzy.
- Fundamente ale mulțimilor și logicii fuzzy.
- Proiectarea sistemelor fuzzy.
- Proiectarea RNA fuzzy.
Aplicații
- Câteva exemple de aplicații ale rețelelor neuronale, avantajele și problemele lor vor fi discutate.
ZIUA 2 - ÎNVĂȚAREA AUTOMATĂ
- Cadrul de Învățare PAC
- Garanții pentru seturi finite de ipoteze – caz consistent
- Garanții pentru seturi finite de ipoteze – caz inconsistent
- Generalități
- Scenarii deterministe vs. stocastice
- Zgomot de eroare Bayes
- Erori de estimare și aproximare
- Selecția modelului
- Complexitatea Radmeacher și Dimensiunea VC
- Compromis Bias - Varianță
- Regularizare
- Supraadaptare
- Validare
- Mașini cu Vectori de Suport
- Kriging (Regresie Gaussiană)
- PCA și Kernel PCA
- Hărți Auto-Organizatoare (SOM)
- Spații Vectoriale Induse de Kernel
- Kernel-uri Mercer și metrici de similitudine induse de kernel
- Învățare prin Reforțare
ZIUA 3 - ÎNVĂȚAREA PROFUNDĂ
Aceasta va fi predată în relație cu subiectele acoperite în Ziua 1 și Ziua 2
- Regresie Logistică și Softmax
- Autoencodere Sparse
- Vectorizare, PCA și Albire
- Învățare Autodidactă
- Rețele Profunde
- Decodere Liniară
- Convoluție și Pooling
- Codare Sparse
- Analiza Componentelor Independente
- Analiza Corelației Canonice
- Demo-uri și Aplicații
Cerințe
Înțelegere bună a matematicii.
Înțelegere bună a statisticilor de bază.
Abilități de bază de programare nu sunt obligatorii, dar sunt recomandate.
Mărturii (2)
Lucrând pe baza principiilor de bază într-un mod concentrat, și trecerea la aplicarea studiilor de caz în aceeași zi
Maggie Webb - Department of Jobs, Regions, and Precincts
Curs - Artificial Neural Networks, Machine Learning, Deep Thinking
Tradus de catre o masina
It was very interactive and more relaxed and informal than expected. We covered lots of topics in the time and the trainer was always receptive to talking more in detail or more generally about the topics and how they were related. I feel the training has given me the tools to continue learning as opposed to it being a one off session where learning stops once you've finished which is very important given the scale and complexity of the topic.
Jonathan Blease
Curs - Artificial Neural Networks, Machine Learning, Deep Thinking
Tradus de catre o masina