Schița de curs

Introducere în Modelarea Amenințărilor AI

  • Ce face sistemele AI vulnerabile?
  • Suprafața de atac AI vs sisteme tradiționale
  • Vectori de atac cheie: straturi de date, model, ieșire și interfață

Atacuri Adversarale asupra Modelelor AI

  • Înțelegerea exemplilor adversarii și tehnicilor de perturbare
  • Atacuri white-box vs black-box
  • Metode FGSM, PGD și DeepFool
  • Vizualizarea și crearea de exemple adversarale

Inversarea Modelelor și Fugă de Confidențialitate

  • Extragerea datelor de antrenare din ieșirea modelului
  • Atacuri de inferență a apartenenței
  • Riscuri de confidențialitate în modelele de clasificare și generative

Poizonarea Datelor și Injucările cu Furtunere

  • Cum datele poisonate influențează comportamentul modelului
  • Furtunere bazate pe trigger-uri și atacuri Trojan
  • Strategii de detectare și sanitizare

Robustitatea și Tehnici de Apărare

  • Antrenarea adversarială și augmentarea datelor
  • Mascherarea gradientului și preprocesarea inputurilor
  • Technici de suavizare a modelului și regularizare

Apărarea AI care păstrează Confidențialitatea

  • Introducere în confidențialitate diferențială
  • Injucarea de zgomot și bugetele pentru confidențialitate
  • Aprenderea federată și agregare securizată

AI Security în Practică

  • Evaluarea modelului cu conștiința amenințărilor și împunerea
  • Utilizarea ART (Adversarial Robustness Toolbox) în setările aplicate
  • Cazuri de studiu din industrie: răci din viața reală și mitigări

Rezumat și Următoarele Pași

Cerințe

  • Oțelirea fluxurilor de lucru ai învățării automatizate și a antrenamentului modelelor
  • Experiență cu Python și cadre comune de ML cum ar fi PyTorch sau TensorFlow
  • Cunoașterea conceptelor de bază ale securității sau a modelării amenințărilor este utilă

Publicul Înfruntau

  • Ingineri de învățare automatizată
  • Analistii de cibercuarte
  • Cercetători AI și echipe de validare a modelului
 14 ore

Numărul de participanți


Pret per participant

Upcoming Courses

Categorii înrudite