Acest training în direct de instruire (online sau presencial) din Moldova este destinat profesionistilor avansati în domeniul securității și specialiștilor în inteligența artificială care doresc să simulateze atacuri asupra sistemelor AI, să descopere vulnerabilități și să îmbunătățească robustitatea modelelor AI_deployate.
La sfârșitul acestui training, participanții vor putea:
- Simuła amenințări din lumea reală pentru modelele de învățare automatizată.
- Genera exemple adversarale pentru a testa robustitatea modelului.
- Evaluea suprafața de atac a API-urilor AI și a pipeline-urilor.
- Diziona strategii red teaming pentru medii de deployare AI.
Introducere în Red Teaming AI
- Comprendearea lanțului amenințărilor din domeniul AI
- Rolurile echipei red în securitatea AI
- Considerente etice și legale
Machine Learning Adversarial
- Tipuri de atacuri: evitare, intoxicație, extragere, inferență
- Generarea de exemple adversarale (de exemplu, FGSM, PGD)
- Atacuri direcționate vs. nedirecționate și metriile de succes
Testare a Robustității Modelelor
- Evaluarea robustității sub perturbări
- Explorarea punctelor cie ale modelelor și modurilor de eșec
- Teste de stres pentru modele clasificare, viziune și NLP
Red Teaming AI Pipelines
- Suprafața de atac a pipeline-urilor AI: date, model, deployare
- Exploatarea API-urilor modelelor neîncredere și punctelor finale
- Inginerie inversă comportamentului și iesirilor modelului
Simulare și Instrumente
- Folosirea Adversarial Robustness Toolbox (ART)
- Red teaming cu instrumente precum TextAttack și IBM ART
- Instrumente de sandbox, monitorizare și observabilitate
Strategii și Apărare Red Team AI Collaboration
- Dezvoltarea exercițiilor red teaming și obiective
- Comunicarea descoperirilor cu echipele blue
- Incorporarea red teaming în gestionarea riscurilor AI
Rezumat și Următoarele Pași
Red Teaming AI Systems este un domeniu specializat de securitate ofensivă care se concentrează pe identificarea slăbiciunilor în modelele de învățare automatizată și pipeline-urile de deployare prin testare adversarială și simulări de stres.
Acest training în direct de instruire (online sau presencial) este destinat profesionistilor avansati în domeniul securității și specialiștilor în ML care doresc să simulateze atacuri asupra sistemelor AI, să descopere vulnerabilități și să îmbunătățească robustitatea modelelor AI_deployate.
La sfârșitul acestui training, participanții vor putea:
- Simuła amenințări din lumea reală pentru modelele de învățare automatizată.
- Genera exemple adversarale pentru a testa robustitatea modelului.
- Evaluea suprafața de atac a API-urilor AI și a pipeline-urilor.
- Diziona strategii red teaming pentru medii de deployare AI.
Format al cursului
- Lecție interactivă și discuție.
- Multe exerciții și practică.
- Pune în aplicare implementarea într-un mediu de laborator live.
Opțiuni de personalizare a cursului
- Pentru a solicita un training personalizat pentru acest curs, vă rugăm să ne contactați pentru a organiza.
Cerințe prealabile
- Comprendeerea arhitecturilor de învățare automatizată și în profunzime
- Experiență cu Python și cadre ML (de exemplu, TensorFlow, PyTorch)
- Familiaritate cu conceptele de securitate cibernetică sau tehnici de securitate ofensive
Publicul-țintă
- Cercetători în domeniul securității
- Echipe de securitate ofensivă
- Profesionisti AI asigurare și red team
Acest training în direct de instruire din Moldova (online sau presencial) este destinat profesionistilor avansati în domeniul securității și specialiștilor în ML care doresc să simulateze atacuri asupra sistemelor AI, să descopere vulnerabilități și să îmbunătățească robustitatea modelelor AI_deployate.
La sfârșitul acestui training, participanții vor putea:
- Simuła amenințări din lumea reală pentru modelele de învățare automatizată.
- Genera exemple adversarale pentru a testa robustitatea modelului.
- Evaluea suprafața de atac a API-urilor AI și a pipeline-urilor.
- Diziona strategii red teaming pentru medii de deployare AI.
Citește mai mult...