Intrati in legatura

Schița de curs

ZIUA 1 - REȚELE NEURONALE ARTIFICIALE

Introducere și Structura RNN.

  • Neuronii biologici și neuronii artificiali.
  • Modelul unei RNN.
  • Funcții de activare utilizate în RNN.
  • Clase tipice de arhitecturi de rețea.

Fundamente Matematice și Mecanisme de Învățare.

  • Revizuirea algebrei vectoriale și matriciale.
  • Concepte de spațiu de stare.
  • Concepte de optimizare.
  • Învățarea prin corectarea erorilor.
  • Învățarea bazată pe memorie.
  • Învățarea Hebbian.
  • Învățarea competitivă.

Perceptroni cu un singur strat.

  • Structura și învățarea perceptronilor.
  • Clasificator de modele - introducere și clasificatori Bayes.
  • Perceptronul ca clasificator de modele.
  • Convergența perceptronului.
  • Limitările unui perceptron.

RNN cu propagare directă.

  • Structuri de rețele cu mai multe straturi cu propagare directă.
  • Algoritmul de propagare inversă.
  • Propagarea inversă - antrenament și convergență.
  • Aproximare funcțională cu propagare inversă.
  • Probleme practice și de proiectare ale învățării prin propagare inversă.

Rețele cu Funcții de Bază Radială.

  • Separabilitatea și interpolarea modelelor.
  • Teoria Regularizării.
  • Regularizarea și rețelele RBF.
  • Proiectarea și antrenamentul rețelelor RBF.
  • Proprietăți de aproximare ale RBF.

Învățare Competitivă și RNN Auto-organizatoare.

  • Proceduri generale de grupare.
  • Cuantizarea Vectorială de Învățare (LVQ).
  • Algoritmi și arhitecturi de învățare competitivă.
  • Hărți auto-organizatoare de caracteristici.
  • Proprietăți ale hărților de caracteristici.

Rețele Neuronale Fuzzy.

  • Sisteme neuro-fuzzy.
  • Fundamente ale mulțimilor și logicii fuzzy.
  • Proiectarea sistemelor fuzzy.
  • Proiectarea RNN fuzzy.

Aplicații

  • Câteva exemple de aplicații ale rețelelor neuronale, avantajele și problemele lor vor fi discutate.

ZIUA 2 - ÎNVĂȚAREA AUTOMATĂ

  • Cadrul de Învățare PAC
    • Garanții pentru seturi finite de ipoteze – caz consistent
    • Garanții pentru seturi finite de ipoteze – caz inconsistent
    • Generalități
      • Scenarii deterministe vs. stocastice
      • Zgomotul erorii Bayes
      • Erori de estimare și aproximare
      • Selecția modelelor
  • Complexitatea Radmeacher și Dimensiunea VC
  • Compromisul Bias - Varianță
  • Regularizare
  • Supraadaptare
  • Validare
  • Mașini cu Vectori de Suport
  • Kriging (Regresie Gaussiană)
  • PCA și Kernel PCA
  • Hărți Auto-organizatoare (SOM)
  • Spații vectoriale induse de kernel
    • Kerneluri Mercer și metrici de similitudine induse de kernel
  • Învățare prin Reforțare

ZIUA 3 - ÎNVĂȚAREA PROFUNDĂ

Acest subiect va fi predat în legătură cu temele acoperite în ZIUA 1 și ZIUA 2

  • Regresie Logistică și Softmax
  • Autoencodere Sparse
  • Vectorizare, PCA și Albire
  • Învățare Auto-dirijată
  • Rețele Profunde
  • Decodificatoare Liniare
  • Convoluție și Pooling
  • Codificare Sparse
  • Analiza Componentelor Independente
  • Analiza Canonicală de Corelație
  • Demo-uri și Aplicații

Cerințe

Înțelegere solidă a matematicii.

Înțelegere solidă a statisticilor de bază.

Abilități de bază de programare nu sunt obligatorii, dar sunt recomandate.

 21 Ore

Numărul de participanți


Pret per participant

Mărturii (2)

Cursuri viitoare

Categorii înrudite