Schița de curs

Introducere în Modelarea Amenințărilor pentru AI

  • Ce face sistemele de AI vulnerabile?
  • Suprafața de atac AI vs sisteme tradiționale
  • Vectori cheie de atac: straturi de date, model, ieșire și interfață

Atacuri Adverse asupra Modelelor de AI

  • Înțelegerea exemplelor adverse și a tehnicilor de perturbare
  • Atacuri white-box vs black-box
  • Metode FGSM, PGD și DeepFool
  • Vizualizarea și crearea de probe adverse

Inversare a Modelului și Scurgeri de Confidențialitate

  • Deducerea datelor de antrenament din ieșirea modelului
  • Atacuri de inferență a apartenenței
  • Riscuri de confidențialitate în modelele de clasificare și generative

Otrăvirea Datelor și Injecții de Backdoor

  • Cum influențează datele otrăvite comportamentul modelului
  • Backdoor-uri bazate pe declanșatori și atacuri Trojan
  • Strategii de detectare și dezinfectare

Tehnici de Robustete și Apărare

  • Antrenament advers și augmentare a datelor
  • Maskarea gradientului și preprocesarea intrărilor
  • Netezirea modelului și tehnici de regularizare

Apărări AI de Protecție a Confidențialității

  • Introducere în confidențialitatea diferențială
  • Injecție de zgomot și bugete de confidențialitate
  • Învățare federată și agregare securizată

Securitatea AI în Practică

  • Evaluarea și implementarea modelelor conștiente de amenințări
  • Utilizarea ART (Adversarial Robustness Toolbox) în setări aplicate
  • Studii de caz din industrie: breșe reale și măsuri de atenuare

Rezumat și Pași Următori

Cerințe

  • Înțelegerea fluxurilor de lucru în învățarea automată și antrenarea modelelor
  • Experiență cu Python și framework-uri comune de ML precum PyTorch sau TensorFlow
  • Familiaritate cu concepte de bază din securitate sau modelarea amenințărilor este utilă

Audiență

  • Ingineri de învățare automată
  • Analiști de securitate cibernetică
  • Cercetători AI și echipe de validare a modelelor
 14 Ore

Numărul de participanți


Pret per participant

Mărturii (1)

Cursuri viitoare

Categorii înrudite