Cursuri de pregatire Securing AI Models: Threats, Attacks, and Defenses
Securizarea modelelor AI este disciplina de a apăra sistemele de învățare automată împotriva amenințărilor specifice modelului, cum ar fi intrările adversarice, intoxicația datelor, atacurile de inversiune și fuga informațiilor confidențiale.
Acest training guițit (în mod live online sau pe locație) este destinat profesionistului intermediar din domeniul învățării automate și securității, care dorește să înțeleagă și să minimizeze amenințările emergente împotriva modelelor AI, folosind atât cadre conceptuale cât și apăruri practice precum antrenarea robustă și confidențialitatea diferențială.
La sfârșitul acestui training, participanții vor putea:
- Identifica și clasifica amenințările specifice AI precum atacurile adversarice, inversiunea și intoxicația.
- Utiliza instrumente precum Adversarial Robustness Toolbox (ART) pentru a simula atacuri și testa modelele.
- Aplica apăruri practice care includ antrenarea adversarică, injectarea de zgomot și tehnici de prezență confidențială.
- Proiecta strategii de evaluare a modelului cu conștiința amenințărilor în mediul de producție.
Formatul cursului
- Sesiuni interactive de predare și discuții.
- Multe exerciții și practică.
- Implementare hands-on într-un mediu live-lab.
Opțiuni de personalizare a cursului
- Pentru a solicita un training personalizat pentru acest curs, vă rugăm să ne contactați pentru a organiza.
Schița de curs
Introducere în Modelarea Amenințărilor AI
- Ce face sistemele AI vulnerabile?
- Suprafața de atac AI vs sisteme tradiționale
- Vectori de atac cheie: straturi de date, model, ieșire și interfață
Atacuri Adversarale asupra Modelelor AI
- Înțelegerea exemplilor adversarii și tehnicilor de perturbare
- Atacuri white-box vs black-box
- Metode FGSM, PGD și DeepFool
- Vizualizarea și crearea de exemple adversarale
Inversarea Modelelor și Fugă de Confidențialitate
- Extragerea datelor de antrenare din ieșirea modelului
- Atacuri de inferență a apartenenței
- Riscuri de confidențialitate în modelele de clasificare și generative
Poizonarea Datelor și Injucările cu Furtunere
- Cum datele poisonate influențează comportamentul modelului
- Furtunere bazate pe trigger-uri și atacuri Trojan
- Strategii de detectare și sanitizare
Robustitatea și Tehnici de Apărare
- Antrenarea adversarială și augmentarea datelor
- Mascherarea gradientului și preprocesarea inputurilor
- Technici de suavizare a modelului și regularizare
Apărarea AI care păstrează Confidențialitatea
- Introducere în confidențialitate diferențială
- Injucarea de zgomot și bugetele pentru confidențialitate
- Aprenderea federată și agregare securizată
AI Security în Practică
- Evaluarea modelului cu conștiința amenințărilor și împunerea
- Utilizarea ART (Adversarial Robustness Toolbox) în setările aplicate
- Cazuri de studiu din industrie: răci din viața reală și mitigări
Rezumat și Următoarele Pași
Cerințe
- Oțelirea fluxurilor de lucru ai învățării automatizate și a antrenamentului modelelor
- Experiență cu Python și cadre comune de ML cum ar fi PyTorch sau TensorFlow
- Cunoașterea conceptelor de bază ale securității sau a modelării amenințărilor este utilă
Publicul Înfruntau
- Ingineri de învățare automatizată
- Analistii de cibercuarte
- Cercetători AI și echipe de validare a modelului
Cursurile publice necesita 5+ participanti
Cursuri de pregatire Securing AI Models: Threats, Attacks, and Defenses - Rezervare
Cursuri de pregatire Securing AI Models: Threats, Attacks, and Defenses - Solicitare
Securing AI Models: Threats, Attacks, and Defenses - Cerere de consultanta
Cerere de consultanta
Cursuri viitoare
Cursuri înrudite
Ghid de traducere: AI Governance, Compliance, și Securitate pentru Lideri din Enterprize
14 oreAcest training live sub direcția instrucțuratorului în Moldova (online sau pe local) este destinat liderilor intermediați ai enterprizei care doresc să înțeleagă cum să guverneze și să asigure sistemelor AI responsabil, în conformitate cu cadrele globale emergente precum Actul UE privind IA, GDPR, ISO/IEC 42001 și Ordinul Executiv al SUA privind IA.
La finalul acestui training, participanții vor putea:
- Să înțeleagă riscurile juridice, etice și regulate de utilizare a AI la nivelul departamentelor.
- Să interpreteze și să aplice cadrele majore de guvernanță AI (Actul UE privind IA, NIST AI RMF, ISO/IEC 42001).
- Să stabilească politici de securitate, audit și supraveghere pentru implementarea AI în entitatea de afaceri.
- Să dezvolte linii directoare de achiziționare și utilizare pentru sistemele AI terțe și interne.
Inteligența Artificială Risk Management și Securitate în Sectorul Public
7 oreArtificial Intelligence (AI) introducează noi dimensiuni ale riscurilor operaționale, provocări de guvernanță și expunere la cybersecuritate pentru agențiile și departamentele guvernamentale.
Acest instruire dirijată în timp real (online sau presenzial) se adresează profesionistilor IT și ai domeniului riscului din sectorul public cu experiență limitată în AI care doresc să înțeleagă cum să evalueze, monitorizeze și protejeze sistemele AI într-un context guvernamental sau regulatoriu.
La sfârșitul acestei instruire, participanții vor putea:
- Interpretarea conceptelor cheie de risc legate de sistemele AI, inclusiv biaza, neprevedibilitatea și deriva modelului.
- Aplicarea cadrelor guvernanței și a auditorilor specifice AI precum NIST AI RMF și ISO/IEC 42001.
- Recunoașterea amenințărilor de securitate cyber care își trag ținta modelurile AI și pipeline-urile de date.
- Estabilirea planurilor de management al riscului interdepartamental și al aliniarizării politicilor pentru punerea în aplicare a AI.
Format al cursului
- Curs interactiv și discuție despre cazuri de utilizare din sectorul public.
- Exerciții cu cadrele guvernanței AI și mapearea politicilor.
- Modelare a amenințărilor bazată pe scenarii și evaluarea riscurilor.
Opțiuni de personalizare ale cursului
- Pentru a solicita o instruire personalizată pentru acest curs, vă rugăm să vă punați în contact cu noi pentru a organiza.
Introducere în AI Trust, Risc și Security Management (AI TRiSM)
21 oreAcest training dirijat de un instruire în Moldova (online sau presencial) se adresează profesionistilor IT cu niveluri începător-intermediar care doresc să înțeleagă și implementeze AI TRiSM în organizațiile lor.
La sfârșitul acestui training, participanții vor putea:
- Înțelege conceptele cheie și importanța gestionării de încredere, riscuri și securitate în AI.
- Identifica și mitiga riscurile asociate cu sistemele AI.
- Implementa cele mai bune practici de securitate pentru AI.
- Înțelege conformitatea normativă și considerentele etice în domeniul AI.
- Dezvolta strategii pentru o gestionare eficientă a AI.
Construire Aplicații Secure și Responsabile cu Modele de Limbaj Large (LLM)
14 oreAcest antrenament live, condus de instrucțor în Moldova (online sau la fața locului) este destinat dezvoltatorilor AI intermediari și avansați, arhitecților și managerilor de produse care doresc să identifice și să mitige riscurile asociate cu aplicațiile alimentate de LLM, inclusiv injectarea prompt-urilor, furtul de date și ieșirea necontrolată, în timp ce integrează controale de securitate precum validarea intrărilor, supravegherea umană și gardurile de output.
La finalul acestui antrenament, participanții vor putea:
- Înțelege vulnerabilitățile fundamentale ale sistemelor bazate pe LLM.
- Aplica principiile de design securizat arhitecturii aplicațiilor LLM.
- Folosi instrumente precum Guardrails AI și LangChain pentru validare, filtrare și siguranță.
- Integrează tehnici precum sandboxing, red teaming și revizuire umană în pipeline-urile de producție de calitate superioară.
Securitatea cibernetică în sistemele AI
14 oreAceastă formare live, guițată de instrucțurator (online sau presenzială), este destinată profesionistilor intermediari în domeniile Inteligenței Artificiale și cybersecurity care doresc să înțeleagă și să abordeze vulnerabilitățile specifice la securitatea modelelor și sistemelor AI, în mod special în industria financiară, guvernanța datelor și consultanța, cu o reglementare strictă.
La sfârșitul acestei forme, participanții vor putea:
- Înțelege tipurile de atacuri adversary care țintaie modelele AI și metodele pentru a le combate.
- Implementa tehnici de consolidațe ale modelului pentru a asigura pipeline-ul învățării automatizate.
- Asigura securitatea și integritatea datelor în modelele de învățare automatizată.
- Naviga cerințele de conformitate reglementară legate de securitatea AI.
Introducere în AI Security și Risk Management
14 oreAceastă formare live, condusă de un instrucțurator (în mod online sau presencial) este destinată profesionistilor la nivel începător în domeniul securității IT, riscurilor și conformității care doresc să înțeleagă conceptele fundamentale ale securității AI, vectorii de amenințare și cadrele globale precum NIST AI RMF și ISO/IEC 42001.
La sfârșitul acestei forme, participanții vor putea:
- Înțelege riscurile de securitate unice introduse de sistemele AI.
- Identifica vectorii de amenințare precum atacurile adversar, încetările datelor și inversarea modelului.
- Aplica modele de guvernanță fundamentale ca cadru NIST AI Risk Management.
- Aliniaza utilizarea AI cu standardele emergente, directivele de conformitate și principiile etice.
OWASP GenAI Securitate
14 orePe baza ultimelor recomandări ale proiectului OWASP GenAI Security Project, participanții vor învăța să identifice, să evalueze și să atenueze amenințările specifice AI prin exerciții practice și scenarii din lumea reală.
Privacy-Preserving Machine Learning
14 oreAcest training guițat în timp real (online sau pe locație) este destinat profesionistilor avansați care doresc să implementeze și să evaluateze tehnici precum învățarea federată, computarea multi-parti sigură, criptografia omomorfică și confidențialitatea diferențială în fluxurile de lucru ale inelului de învățare mașină din lumea reală.
La sfârșitul acestui training, participanții vor putea:
- Să înțeleagă și să compare principalele tehnici de protejare a confidențialității în ML.
- Să implementeze sisteme de învățare federată folosind cadre open-source.
- Să aplique confidențialitatea diferențială pentru împărțirea sigură a datelor și antrenarea modelelor.
- Să utilizeze tehnici de criptare și calcul sigur pentru a proteja intrările și iesirile modelului.
Red Teaming AI Systems: Offensive Security for ML Models
14 oreAceastă formare live, condusă de un instrucțurator (online sau în locație), este destinată profesionistilor avansați din domeniul securității și specialistilor ML care doresc să simulateze atacuri asupra sistemelor AI, să descopere vulnerabilități și să îmbunătățească robustitatea modelelor AI în stadiu de implementare.
La sfârșitul acestei forme, participanții vor putea:
- Simula amenințări din lumea reală pentru modelele de învățare automatizată.
- Genera exemple adversarale pentru a testa robustitatea modelului.
- Evalua suprafața de atac a API-urilor AI și pipeline-urilor.
- Concepți strategii red teaming pentru mediile de implementare AI.
Securizarea Edge AI și Inteligența Înființată
14 oreAcest training live, guvernați de un instrucțurator (în mod online sau presential) este destinat inginerilor și profesionalilor din domeniul securității cu cunoștințe intermediare care doresc să protejeze modelele AI depuse la marginea rețelei împotriva amenințărilor precum manipularea, pierderea datelor, intrările adverse și atacurile fizice.
La sfârșitul acestui training, participanții vor putea:
- Identifica și evalua riscurile de securitate în implementări AI la marginea rețelei.
- Aplica tehnici de rezistență la manipulare și inferențe criptate.
- Consolidarea modelelor depuse la margine și protejarea canalurilor de date.
- Implementa strategii de mitigare a amenințărilor specifice sistemelor embarcate și constrânse.
Securitatea și confidențialitatea în aplicațiile TinyML
21 oreTinyML este o abordare pentru implementarea modelelor de machine learning pe dispozitive cu resurse limitate, care operează la marginea rețelei.
Această instruire condusă de un instrutor (online sau în persoana) este adresată profesioniștilor de nivel avansat care doresc să securizeze pipeline-urile TinyML și să implementeze tehnici de protecție a confidențialității în aplicațiile edge AI.
La finalul acestui curs, participanții vor putea:
- Identifica riscuri de securitate specifice inferenței TinyML pe dispozitiv.
- Implementa mecanisme de protecție a confidențialității pentru implementările edge AI.
- Îmbunătăți modelurile TinyML și sistemele embarcate împotriva amenințărilor adversare.
- Aplica cele mai bune practici pentru gestionarea securizată a datelor în medii cu resurse limitate.
Formatul cursului
- Prelegeri captivante susținute de discuții conduse de expert.
- Exerciții practice care accentuează scenariile amenințătoare din lumea reală.
- Implementarea hands-on folosind instrumente de securitate embarcate și TinyML.
Opțiuni de personalizare a cursului
- Organizațiile pot solicita o versiune personalizată a acestei instrueri pentru a se alinia cu nevoile specifice de securitate și conformitate.
AI Sigură și Securizată: Guvernanță, Identitate și Testare Adversară
21 oreAcest curs acoperă guvernanța, gestionarea identităților și testarea adversară a sistemelor AI agențiale, concentrându-se pe modele de implementare sigure în medii de enterprise și tehnici de testare adversară practice.
Acest antrenament condus de instrucțor (online sau la fața locului) este destinat practicanților avanțați care doresc să proiecteze, securizeze și evaluate sistemele AI bazate pe agenți în medii de producție.
La finalul acestui antrenament, participanții vor putea:
- Defini modele și politici de guvernanță pentru implementările sigure ale AI-ului agențial.
- Proiecta fluxuri de identitate și autentificare non-umane pentru agenți, cu acces cu privilegii minime.
- Implementa controale de acces, urme de audit și observabilitate adaptate agentelor autonome.
- Planificați și executați exerciții de echipă roșie pentru a descoperi abuzuri, căile de escaladare și riscuri de exfiltrare a datelor.
- Mitigați amenințările comune asupra sistemelor agențiale prin politici, controale ingineristice și monitorizare.
Formatul Cursului
- Prelegeri interactive și ateliere de modelare a amenințărilor.
- Laboratoare practice: provizionarea identităților, aplicarea politicilor și simularea adversară.
- Exerciții echipă roșie / echipă albastră și evaluare finală a cursului.
Opțiuni de Personalizare a Cursului
- Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a face aranjamente.