Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Schița de curs
Introducere în Ollama
- Ce este Ollama și cum funcționează?
- Avantajele rulării modelelor AI local
- Prezentare generală a LLM-urilor suportate (Llama, DeepSeek, Mistral etc.)
Instalarea și Configurarea Ollama
- Cerințe sistemice și considerații hardware
- Instalarea Ollama pe diferite sisteme de operare
- Configurarea dependențelor și setarea mediuului
Rularea Modelelor AI Local
- Descărcarea și încărcarea modelelor AI în Ollama
- Interacțiunea cu modelele prin linia de comandă
- Ingineria prompt-uri bazice pentru sarcini AI locale
Optimizarea Performanței și a Folosirii Resurselor
- Gestionarea resurselor hardware pentru o execuție eficientă a modelelor AI
- Reducerea întârzierilor și îmbunătățirea timpului de răspuns al modelului
- Benchmark-ingul performanței pentru diferite modele
Cazuri de Utilizare pentru Deploy-ul AI Local
- Chatbot-uri și asistenți virtuali alimentați prin inteligență artificială
- Procesarea datelor și sarcini de automatizare
- Aplicații AI orientate spre confidențialitate
Rezumat și Pași Următori
Cerințe
- Comprehensia de bază a conceptelor de Inteligență Artificială și Machine Learning
- Cunoașterea interfețelor liniei de comandă
Publicul Înțes
- Dezvoltatori care rulează modele AI fără dependențe de cloud
- Business profesioniști interesat de confidențialitatea AI și desfășurarea eficientă din punct de vedere costurilor
- Enthusiasti ai Inteligenței Artificiale care exploră desfășurarea locală a modelelor
7 ore