Cursuri de pregatire Machine Learning cu Menținerea Confidențialității
Machine Learning cu Menținerea Confidențialității este un domeniu care se concentrează pe protejarea datelor sensibile, în timp ce permite implementarea de capacități avansate ale AI în medii descentralizate sau restricte.
Această instruire live, condusă de un instructor (online sau la fața locului) este destinată profesioniștilor cu nivel avansat care doresc să implementeze și să evalueze tehnici precum învățarea federată, calculul securizat multiplu, criptarea omomorfică și confidențialitatea diferențială în pipeleline-urile de machine learning din lumea reală.
La finalul acestei instruirilor, participanții vor putea:
- Să înțeleagă și să compare principalele tehnici de protecție a confidențialității în ML.
- Să implementeze sisteme de învățare federată folosind cadre open-source.
- Să aplice confidențialitatea diferențială pentru împărtășirea sigură a datelor și instruirea modelului.
- Să folosească tehnici de criptare și calcul securizat pentru protejarea intrărilor și ieșirilor modelului.
Formatul Cursului
- Prezentare interactivă și discuție.
- Mulți exerciții și practică.
- Implementare practică într-un mediu live-lab.
Opțiuni de Personalizare a Cursului
- Pentru a solicita un curs personalizat, vă rugăm să ne contactați pentru a programa.
Schița de curs
Introducere în Machine Learning cu Menținerea Confidențialității
- Motivații și riscuri în mediile cu date sensibile
- Prezentare generală a tehniciilor de protecție a confidențialității pentru ML
- Modele de amenințare și considerații reglementare (de exemplu, GDPR, HIPAA)
Învățarea Federată
- Conceptul și arhitectura învățării federate
- Sincronizarea și agregarea client-server
- Implementare folosind PySyft și Flower
Confidențialitatea Diferențială
- Matematica confidențialității diferențiale
- Aplicarea DP în interogările de date și instruirea modelului
- Folosirea Opacus și TensorFlow Privacy
Calculul Securizat Multiplu (SMPC)
- Protocolurile SMPC și cazurile de utilizare
- Abordări bazate pe criptare vs. abordări cu împărțire secretă
- Workflow-uri securizate de calcul cu CrypTen sau PySyft
Criptarea Omomorfică
- Criptare omomorfică completă vs. parțială
- Inferența criptată pentru sarcini sensibile
- Lucrul practic cu TenSEAL și Microsoft SEAL
Aplicații și Studii de Caz din Industrie
- Confidențialitate în sănătate: învățarea federată pentru AI medical
- Colaborare securizată în finanțe: modele de risc și conformitate
- Cazuri de utilizare din domeniul apărării și guvernamental
Rezumat și Următorii Pași
Cerințe
- O înțelegere a principiilor machine learning
- Experiență cu Python și biblioteci ML (de exemplu, PyTorch, TensorFlow)
- Familiaritatea cu concepte de protecție a datelor sau cybersecurity este utilă
Audiență
- Cercetători în AI
- Echipe de protecție a datelor și conformitate cu confidențialitatea datelor
- Ingineri de securitate care lucrează în industria reglementată
Cursurile publice necesita 5+ participanti
Cursuri de pregatire Machine Learning cu Menținerea Confidențialității - Rezervare
Cursuri de pregatire Machine Learning cu Menținerea Confidențialității - Solicitare
Machine Learning cu Menținerea Confidențialității - Cerere de consultanta
Cerere de consultanta
Cursuri viitoare
Cursuri înrudite
ISACA Avansat în Gestionearea Securității AI (AAISM)
21 oreAAISM este un cadru avansat pentru evaluarea, guvernanța și gestionarea riscurilor de securitate în sistemele de inteligență artificială.
Această instruire condusă de instructor (online sau prezențial) este destinate profesionistilor cu un nivel avansat care doresc să implementeze controale și practici de guvernanță eficiente pentru medii AI la nivel de enterprise.
La finalizarea acestui program, participanții vor fi pregătiți să:
- Evalueze riscurile de securitate AI folosind metodologii recunoscute în industrie.
- Implementeze modele de guvernanță pentru implementarea responsabilă a AI.
- Aliniere politicii de securitate AI cu obiectivele organizației și așteptările reglementare.
- Îmbunătățească reziliența și responsabilitatea în operațiunile bazate pe AI.
Formatul Cursului
- Prelegeri susținute de analiză expertă.
- Ateliere practice și activități bazate pe evaluare.
- Exerciții aplicate folosind scenarii reale de guvernanță AI.
Opțiuni de Personalizare a Cursului
- Pentru instruire personalizată aliniată strategiei AI a organizației dumneavoastră, vă rugăm să ne contactați pentru a personaliza cursul.
Guvernanța, Conformitatea și Securitatea AI pentru Liderii de Enterprise
14 oreAceastă instruire condusă de instructor, live (online sau la fața locului) este destinată liderilor intermediari de enterprise care doresc să înțeleagă cum să guverneze și să securizeze sistemele AI responsabil și în conformitate cu cadre globale emergente precum Actul AI al UE, GDPR, ISO/IEC 42001 și Ordinul Executiv al SUA privind AI.
La sfârșitul acestei instruiră, participanții vor putea:
- Înțelege riscurile legale, etice și reglementare ale utilizării AI în diverse departamente.
- Interpreta și aplica cadrele principale de guvernanță AI (Actul AI al UE, NIST AI RMF, ISO/IEC 42001).
- Etabili politicile de securitate, audit și supraveghere pentru implementarea AI în enterprise.
- Dezvolta ghidurile de achiziție și utilizare pentru sistemele AI terțe părți și proprii.
Gestionarea Riscului și Securitatea AI în Sectorul Public
7 oreInteligenta Artificială (AI) introduce noi dimensiuni ale riscurilor operaționale, provocări de guvernanță și expuneri la securitatea cibernetică pentru agențiile și departamentele guvernamentale.
Această instruire condusă de instructor (online sau prezentă) este destinată profesioniștilor IT și de gestionare a riscurilor din sectorul public cu experiență limitată în AI, care doresc să înțeleagă cum să evalueze, monitorizeze și securizeze sistemele AI într-un context guvernamental sau de reglementare.
La finalul acestei instruirări, participanții vor putea:
- Interpretarea conceptelor cheie ale riscurilor legate de sistemele AI, inclusiv prejudecerea, neprevizibilitatea și deriva modelului.
- Aplicarea cadrelor specifice AI de guvernanță și audit, cum ar fi NIST AI RMF și ISO/IEC 42001.
- Recunoașterea amenințărilor de securitate cibernetică care vizează modelele AI și pipele-urile de date.
- Stabilirea planurilor de gestionare a riscurilor cross-departamentale și alinierea politicilor pentru implementarea AI.
Formatul Cursului
- Prezentare interactivă și discuție a cazurilor de utilizare din sectorul public.
- Exerciții cu cadre de guvernanță AI și mapparea politicilor.
- Modelarea amenințărilor bazată pe scenarii și evaluarea riscurilor.
Opțiuni de Personalizare a Cursului
- Pentru a solicita o instruire personalizată pentru acest curs, vă rugăm să ne contactați pentru aranjamente.
Introducere în AI Trust, Risc și Security Management (AI TRiSM)
21 oreAcest training dirijat de un instruire în Moldova (online sau presencial) se adresează profesionistilor IT cu niveluri începător-intermediar care doresc să înțeleagă și implementeze AI TRiSM în organizațiile lor.
La sfârșitul acestui training, participanții vor putea:
- Înțelege conceptele cheie și importanța gestionării de încredere, riscuri și securitate în AI.
- Identifica și mitiga riscurile asociate cu sistemele AI.
- Implementa cele mai bune practici de securitate pentru AI.
- Înțelege conformitatea normativă și considerentele etice în domeniul AI.
- Dezvolta strategii pentru o gestionare eficientă a AI.
Construire Aplicații Secure și Responsabile cu Modele de Limbaj Large (LLM)
14 oreAcest antrenament live, condus de instrucțor în Moldova (online sau la fața locului) este destinat dezvoltatorilor AI intermediari și avansați, arhitecților și managerilor de produse care doresc să identifice și să mitige riscurile asociate cu aplicațiile alimentate de LLM, inclusiv injectarea prompt-urilor, furtul de date și ieșirea necontrolată, în timp ce integrează controale de securitate precum validarea intrărilor, supravegherea umană și gardurile de output.
La finalul acestui antrenament, participanții vor putea:
- Înțelege vulnerabilitățile fundamentale ale sistemelor bazate pe LLM.
- Aplica principiile de design securizat arhitecturii aplicațiilor LLM.
- Folosi instrumente precum Guardrails AI și LangChain pentru validare, filtrare și siguranță.
- Integrează tehnici precum sandboxing, red teaming și revizuire umană în pipeline-urile de producție de calitate superioară.
Securitatea cibernetică în sistemele AI
14 oreAceastă formare live, guițată de instrucțurator (online sau presenzială), este destinată profesionistilor intermediari în domeniile Inteligenței Artificiale și cybersecurity care doresc să înțeleagă și să abordeze vulnerabilitățile specifice la securitatea modelelor și sistemelor AI, în mod special în industria financiară, guvernanța datelor și consultanța, cu o reglementare strictă.
La sfârșitul acestei forme, participanții vor putea:
- Înțelege tipurile de atacuri adversary care țintaie modelele AI și metodele pentru a le combate.
- Implementa tehnici de consolidațe ale modelului pentru a asigura pipeline-ul învățării automatizate.
- Asigura securitatea și integritatea datelor în modelele de învățare automatizată.
- Naviga cerințele de conformitate reglementară legate de securitatea AI.
Introducere în Securitatea și Gestionarea Riscurilor AI
14 oreAceastă instruire condusă de instructor, live (online sau pe loc) este destulă pentru profesionalii de securitate IT, risc și conformitate la nivel începător care doresc să înțeleagă conceptele fundamentale de securitate AI, vectorii de amenințare și cadrele globale precum NIST AI RMF și ISO/IEC 42001.
La sfârșitul acestei instruiră, participanții vor putea:
- Înțelege riscurile de securitate unice introduse de sistemele AI.
- Identifica vectorii de amenințare precum atacurile adversare, intoxicarea datelor și inversarea modelului.
- Aplica modele fundamentale de guvernanță precum Cadreul de Gestionează Riscurile AI NIST.
- Alinea utilizarea AI cu standardele emergente, directiviile de conformitate și principiile etice.
OWASP GenAI Securitate
14 orePe baza ultimelor recomandări ale proiectului OWASP GenAI Security Project, participanții vor învăța să identifice, să evalueze și să atenueze amenințările specifice AI prin exerciții practice și scenarii din lumea reală.
Red Teaming AI Systems: Offensive Security for ML Models
14 oreAceastă instruire condusă de instructor (online sau la fața locului) este adresată specialistilor în securitate și expertilor în ML de nivel avansat care doresc să simuleze atacuri asupra sistemelor AI, să dezvăluie vulnerabilități și să îmbunătățească robustitatea modelelor AI implementate.
La finalul acestei instruirilor, participanții vor fi capabili să:
- Simuleze amenințări din lumea reală asupra modelelor de machine learning.
- Genereze exemple adversare pentru a testa robustitatea modelului.
- Evalueze suprafața de atac a API-urilor AI și pipeline-urilor.
- Dezvolte strategii de red teaming pentru mediile de implementare AI.
Securizarea AI-ului de la Edge și Inteligenței Incluse
14 oreAceastă instruire condusă de instructor, live (online sau pe loc) este adresată inginerilor și specialistilor în securitate cu un nivel intermediar care doresc să protejeze modelele AI implementate la edge împotriva amenințărilor precum manipularea, furtul datelor, intrările adverze și atacurile fizice.
La finalul acestei instruirile, participanții vor fi capabili să:
- Identifice și evalueze riscurile de securitate în implementările AI-ului de la edge.
- Aplice tehnici de rezistență la manipularea și inferența cifrată.
- Consolideze modelele implementate pe edge și să securizeze conductele de date.
- Implementeze strategii de mitigare a amenințărilor specifice sistemelor incluse și cu resurse limitate.
Securizarea Modelelor AI: Ameațe, Atacuri și Apărări
14 oreAceastă instruire condusă de instrucționist, live (online sau în locație) este destinată profesioniștilor cu un nivel intermediar în domeniul învățării automate și a cibersecurității, care doresc să înțeleagă și să atenueze amenințările emergente împotriva modelelor AI, folosind atât cadre conceptuale, cât și apărări practice precum instruirea robustă și confidențialitatea diferențială.
La finalul acestei instruirile, participanții vor putea:
- Identifica și clasifica amenințările specifice AI precum atacurile aversive, inversarea și otrăvirea.
- Utiliza instrumente precum Adversarial Robustness Toolbox (ART) pentru a simula atacuri și a testa modelele.
- Aplica apărări practice, inclusiv instruirea aversivă, injectarea zgomotului și tehnici de protecție a confidențialității.
- Proiecteaza strategii de evaluare amenințări-conștiente în medii de producție.
Securitatea și confidențialitatea în aplicațiile TinyML
21 oreTinyML este o abordare pentru implementarea modelelor de machine learning pe dispozitive cu resurse limitate, care operează la marginea rețelei.
Această instruire condusă de un instrutor (online sau în persoana) este adresată profesioniștilor de nivel avansat care doresc să securizeze pipeline-urile TinyML și să implementeze tehnici de protecție a confidențialității în aplicațiile edge AI.
La finalul acestui curs, participanții vor putea:
- Identifica riscuri de securitate specifice inferenței TinyML pe dispozitiv.
- Implementa mecanisme de protecție a confidențialității pentru implementările edge AI.
- Îmbunătăți modelurile TinyML și sistemele embarcate împotriva amenințărilor adversare.
- Aplica cele mai bune practici pentru gestionarea securizată a datelor în medii cu resurse limitate.
Formatul cursului
- Prelegeri captivante susținute de discuții conduse de expert.
- Exerciții practice care accentuează scenariile amenințătoare din lumea reală.
- Implementarea hands-on folosind instrumente de securitate embarcate și TinyML.
Opțiuni de personalizare a cursului
- Organizațiile pot solicita o versiune personalizată a acestei instrueri pentru a se alinia cu nevoile specifice de securitate și conformitate.
AI Sigură și Securizată: Guvernanță, Identitate și Testare Adversară
21 oreAcest curs acoperă guvernanța, gestionarea identităților și testarea adversară a sistemelor AI agențiale, concentrându-se pe modele de implementare sigure în medii de enterprise și tehnici de testare adversară practice.
Acest antrenament condus de instrucțor (online sau la fața locului) este destinat practicanților avanțați care doresc să proiecteze, securizeze și evaluate sistemele AI bazate pe agenți în medii de producție.
La finalul acestui antrenament, participanții vor putea:
- Defini modele și politici de guvernanță pentru implementările sigure ale AI-ului agențial.
- Proiecta fluxuri de identitate și autentificare non-umane pentru agenți, cu acces cu privilegii minime.
- Implementa controale de acces, urme de audit și observabilitate adaptate agentelor autonome.
- Planificați și executați exerciții de echipă roșie pentru a descoperi abuzuri, căile de escaladare și riscuri de exfiltrare a datelor.
- Mitigați amenințările comune asupra sistemelor agențiale prin politici, controale ingineristice și monitorizare.
Formatul Cursului
- Prelegeri interactive și ateliere de modelare a amenințărilor.
- Laboratoare practice: provizionarea identităților, aplicarea politicilor și simularea adversară.
- Exerciții echipă roșie / echipă albastră și evaluare finală a cursului.
Opțiuni de Personalizare a Cursului
- Pentru a solicita un antrenament personalizat pentru acest curs, vă rugăm să ne contactați pentru a face aranjamente.