Schița de curs

Introducere

  • Rețele neuronale artificiale vs. algoritmi bazați pe arbori de decizie

Prezentare generală a caracteristicilor XGBoost

  • Elementele unui algoritm Gradient Boosting
  • Accent pe viteza de calcul și performanța modelului
  • XGBoost vs. Regresie logistică, Random Forest și Gradient Boosting standard

Evoluția algoritmilor pe bază de arbore

  • Arbori de decizie, Bagging, Random Forest, Boosting, Gradient Boosting
  • Optimizarea sistemului
  • Îmbunătățiri algoritmice

Pregătirea mediului

  • Instalarea SciPy și scikit-learn

Crearea unui model XGBoost

  • Descărcarea unui set de date
  • Rezolvarea unei probleme comune de clasificare
  • Formarea modelului XGBoost pentru clasificare
  • Rezolvarea unei sarcini comune de regresie

Monitorizarea performanței

  • Evaluarea și raportarea performanței
  • Oprirea timpurie

Trasarea caracteristicilor în funcție de importanță

  • Calcularea importanței caracteristicilor
  • Decizia de a decide ce variabile de intrare trebuie păstrate sau eliminate

Configurarea Gradient Boosting

  • Revizuirea curbelor de învățare pe seturile de date de instruire și de validare
  • Ajustarea ratei de învățare
  • Ajustarea numărului de arbori

Acordarea hiperparametrului

  • Îmbunătățirea performanței unui model XGBoost
  • Proiectarea unui experiment controlat pentru reglarea hiperparametrilor
  • Searching de combinații de parametri

Crearea unei conducte

  • Încorporarea unui model XGBoost într-o conductă de învățare automată end-to-end
  • Reglarea hiperparametrilor în cadrul pipeline-ului
  • Tehnici avansate de preprocesare

Depanare

Rezumat și concluzii

Cerințe

  • Experiență în scrierea modelelor de învățare automată

Audiență

  • Științifici de date
  • Inginerii de învățare mecanică
 14 ore

Numărul de participanți


Pret per participant

Upcoming Courses