Schița de curs

Învățare automată

Introducere la Machine Learning

    Aplicații ale învățării automate Învățare supravegheată versus nesupravegheată Algoritmi de învățare automată Clasificare de regresie Recomandare de grupare Detectare anomalii ale sistemului Reinforcement Learning

Regresia

    Regresia simplă și multiplă Metoda celor mai mici pătrate Estimarea coeficienților Evaluarea acurateței estimărilor coeficienților Evaluarea acurateței modelului Analiza post-estimare Alte considerații în modelele de regresie Predictori calitativi Extensii ale modelelor liniare Probleme potențiale Comerț de variație bias [sub-adaptare /over-fitting] pentru modelele de regresie

Metode de reeșantionare

    Validare încrucișată Abordarea setului de validare Leave-One-Out Validare încrucișată K-Fold Validare încrucișată Bias-Varie Trade-Off pentru k-Fold Bootstrap

Selectarea și regularizarea modelului

    Selecția subsetului [Selectarea cea mai bună a subsetului, Selecția în trepte, Alegerea modelului optim] Metode de contracție/Regularizare [Regresia crestei, Lasso și plasă elastică] Selectarea parametrului de reglare Metode de reducere a dimensiunii Componente principale Regresie Cele mai mici pătrate parțiale

Clasificare

    Regresia logistică Funcția de cost al modelului logistic Estimarea coeficienților Efectuarea predicțiilor Raportul cotelor Matrice de evaluare a performanței [Sensibilitate/Specificie/VPP/NPV, Precizie, curbă ROC etc.] Regresie logistică multiplă Regresie logistică pentru >2 clase de răspuns Regresie logistică regulată
Analiză discriminantă liniară folosind teorema lui Bayes pentru clasificare
  • Analiza liniară discriminantă pentru p=1
  • Analiza liniară discriminantă pentru p >1
  • Analiza Cuadratic Discriminant
  • K-Cei mai apropiati vecini
  • Clasificare cu limite de decizie neliniare
  • Obiectiv de optimizare a mașinilor vectoriale de sprijin
  • Clasificatorul de marjă maximă
  • Sâmburi
  • Clasificare unu versus unu
  • Clasificarea unu versus toate
  • Compararea metodelor de clasificare
  • Introducere la Deep Learning
  • Structura ANN
  • Bioneuroni logici și neuroni artificiali Ipoteza neliniară Model de reprezentare Exemple și intuiții Funcție de transfer/funcții de activare Clase tipice de arhitecturi de rețea
  • Feed forward ANN.

    Structuri ale rețelelor de tip feed forward multistrat Algoritm de propagare inversă Propagare înapoi - antrenament și convergență Aproximare funcțională cu propagare inversă Probleme practice și de proiectare ale învățării cu propagare inversă

      Deep Learning

    Inteligență artificială și Deep Learning Regresie Softmax Învățare autodidactă Rețele profunde Demo și aplicații

      Laborator:

    Noțiuni introductive cu R

      Introducere în R Comenzi și biblioteci de bază Manipularea datelor Importul și exportul datelor Rezumate grafice și numerice Funcții de scriere

    Regresia

    Regresie liniară simplă și multiplă Termeni de interacțiune Transformări neliniare Regresie variabilă fictică Validare încrucișată și Bootstrap Metode de selecție a subsetului Penalizare [Ridge, Lasso, Elastic Net]

      Clasificare

    Regresie logistică, LDA, QDA și KNN, Reeșantionare și regularizare Suport Vector Machine Reeșantionare și regularizare

      Notă:

    Pentru algoritmii ML, studiile de caz vor fi folosite pentru a discuta despre aplicarea lor, avantajele și problemele potențiale. Analiza diferitelor seturi de date va fi efectuată folosind R

    Cerințe

    Este de dorit cunoașterea de bază a conceptelor statistice.

     21 ore

    Mărturii (4)

    Cursuri înrudite

    Categorii înrudite