Schița de curs

Introducere

  • Rețele neuronale artificiale vs. algoritmi bazați pe arbori de decizie

Prezentare generală a caracteristicilor XGBoost

  • Elements ale unui algoritm Gradient Boosting
  • Accent pe viteza de calcul și performanța modelului
  • XGBoost vs. regresie logistică, Random Forest, și Gradient Boosting standard

Evoluția algoritmilor pe bază de arbori

  • Arbori de decizie, Bagging, Random Forest, Boosting, Gradient Boosting
  • Optimizarea sistemului
  • Îmbunătățiri algoritmice

Pregătirea mediului

  • Instalarea SciPy și scikit-learn

Crearea unui model XGBoost

  • Descărcarea unui set de date
  • Rezolvarea unei probleme comune de clasificare
  • Formarea modelului XGBoost pentru clasificare
  • Rezolvarea unei sarcini comune de regresie

Monitorizarea performanței

  • Evaluarea și raportarea performanței
  • Stoparea timpurie

Reprezentarea grafică a caracteristicilor în funcție de importanță

  • Calcularea importanței caracteristicilor
  • Deciderea variabilelor de intrare care trebuie păstrate sau eliminate

Configurarea sistemului Gradient Boosting

  • Revizuirea curbelor de învățare pe seturile de date de formare și validare
  • Ajustarea ratei de învățare
  • Ajustarea numărului de arbori

Reglarea hiperparametrilor

  • Îmbunătățirea performanței unui model XGBoost
  • Proiectarea unui experiment controlat pentru reglarea hiperparametrilor
  • Căutarea combinațiilor de parametri

Crearea unei conducte

  • Încorporarea unui model XGBoost într-un pipeline de învățare automată end-to-end
  • Reglarea hiperparametrilor în cadrul conductei
  • Tehnici avansate de preprocesare

Rezolvarea problemelor

Rezumat și concluzie

Cerințe

  • Experiență în scrierea de modele de învățare automată

Audiență

  • Oameni de știință în domeniul datelor
  • Ingineri de învățare automată
 14 ore

Numărul de participanți


Pret per participant

Upcoming Courses

Categorii înrudite