Schița de curs

Introducere în Red Teaming pentru IA

  • Compre henderea amenințărilor IA
  • Rolurile echipei roșii în securitatea IA
  • Considerații etice și legale

Adversarial Machine Learning

  • Tipuri de atacuri: evitare, intoxicație, extragere, inferență
  • Generarea exemplilor adversar (de exemplu, FGSM, PGD)
  • Atacuri direcționate vs. nedirecționate și metriile de succes

Testarea Robustecii Modelului

  • Evaluarea robustecii sub perturbări
  • Explorarea punctelor cie ale modelului și modurilor de eșec
  • Testele cu presiune pentru modele de clasificare, viziune și NLP

Red Teaming Pipelines IA

  • Suprafața de atac a pipeline-ului IA: date, model, implementare
  • Exploatarea API-urilor și punctelor finale ale modelelor nesigure
  • Inginerie inversă a comportamentului și a iesirilor modelului

Simulare și Instrumente

  • Folosirea Adversarial Robustness Toolbox (ART)
  • Red teaming cu instrumente precum TextAttack și IBM ART
  • Instrumente de sandbox, monitorizare și observabilitate

Strategii și Apărare pentru Echipele Roșii AI Collaboration

  • Elaborarea exercițiilor și obiectivelor echipei roșii
  • Comunicarea descoperirilor cu echipele albastre
  • Incorporarea red teaming în gestionarea riscurilor AI

Rezumat și Următoarele Pași

Cerințe

  • O înțelegere a arhitecturilor de învățare automată și înțelepciune profundă
  • Experiență cu Python și cadre ML (de exemplu, TensorFlow, PyTorch)
  • Familiaritate cu conceptele de securitate cibernetică sau tehnici de securitate ofensivă

Publicul-țintă

  • Cercetători în domeniul securității
  • Echipe de securitate ofensivă
  • Profesioniști AI asigurare și red team
 14 ore

Numărul de participanți


Pret per participant

Upcoming Courses

Categorii înrudite