Schița de curs

Introducere în Red Teaming AI

  • Înțelegerea paielei amenințărilor AI
  • Rolurile echipelor red team în securitatea AI
  • Considerente etice și legale

Machine Learning Adversar

  • Tipuri de atac: evaziune, intoxicare, extragere, inferință
  • Generarea exemplelor adversare (de exemplu, FGSM, PGD)
  • Atacuri țintite vs. nontintite și metricile de succes

Testarea Robustei Modelului

  • Evaluarea robustei sub perturbări
  • Explorarea punctelor dinamice și modurilor de eșec ale modelului
  • Testarea stres a modelelor de clasificare, viziune și NLP

Red Teaming AI Pipelines

  • Suprafața de atac a pipeline-urilor AI: date, model, implementare
  • Exploatarea API-urilor și punctelor finale ale modelelor nesigure
  • Ingineria inversă a comportamentului și a ieșirilor modelului

Simulare și Instrumente

  • Utilizarea Adversarial Robustness Toolbox (ART)
  • Red teaming cu instrumente precum TextAttack și IBM ART
  • Instrumente de sandbox, monitorizare și observabilitate

Strategia AI Red Team și Colaborarea cu Apărarea

  • Dezvoltarea exercițiilor și a obiectivelor echipelor red team
  • Comunicarea descoperirilor către echipele blue team
  • Integrarea red teaming-ului în gestionarea riscurilor AI

Rezumat și Următoarele Pași

Cerințe

  • O înțelegere a arhitecturilor de machine learning și deep learning
  • Experiență cu Python și framework-uri ML (de exemplu, TensorFlow, PyTorch)
  • Familiaritate cu concepte de securitate cibernetică sau tehnici de securitate ofensivă

Audience

  • Cercetători în securitate
  • Echipe de securitate ofensivă
  • Profesionaliști AI assurance și red team
 14 ore

Numărul de participanți


Pret per participant

Cursuri viitoare

Categorii înrudite