Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Schița de curs
Introducere în Red Teaming pentru IA
- Compre henderea amenințărilor IA
- Rolurile echipei roșii în securitatea IA
- Considerații etice și legale
Adversarial Machine Learning
- Tipuri de atacuri: evitare, intoxicație, extragere, inferență
- Generarea exemplilor adversar (de exemplu, FGSM, PGD)
- Atacuri direcționate vs. nedirecționate și metriile de succes
Testarea Robustecii Modelului
- Evaluarea robustecii sub perturbări
- Explorarea punctelor cie ale modelului și modurilor de eșec
- Testele cu presiune pentru modele de clasificare, viziune și NLP
Red Teaming Pipelines IA
- Suprafața de atac a pipeline-ului IA: date, model, implementare
- Exploatarea API-urilor și punctelor finale ale modelelor nesigure
- Inginerie inversă a comportamentului și a iesirilor modelului
Simulare și Instrumente
- Folosirea Adversarial Robustness Toolbox (ART)
- Red teaming cu instrumente precum TextAttack și IBM ART
- Instrumente de sandbox, monitorizare și observabilitate
Strategii și Apărare pentru Echipele Roșii AI Collaboration
- Elaborarea exercițiilor și obiectivelor echipei roșii
- Comunicarea descoperirilor cu echipele albastre
- Incorporarea red teaming în gestionarea riscurilor AI
Rezumat și Următoarele Pași
Cerințe
- O înțelegere a arhitecturilor de învățare automată și înțelepciune profundă
- Experiență cu Python și cadre ML (de exemplu, TensorFlow, PyTorch)
- Familiaritate cu conceptele de securitate cibernetică sau tehnici de securitate ofensivă
Publicul-țintă
- Cercetători în domeniul securității
- Echipe de securitate ofensivă
- Profesioniști AI asigurare și red team
14 ore