Schița de curs

Introducere în Ollama

  • Ce este Ollama și cum funcționează?
  • Avantajele rulării modelelor AI local
  • Prezentare generală a LLM-urilor suportate (Llama, DeepSeek, Mistral etc.)

Instalarea și Configurarea Ollama

  • Cerințe sistemice și considerații hardware
  • Instalarea Ollama pe diferite sisteme de operare
  • Configurarea dependențelor și setarea mediuului

Rularea Modelelor AI Local

  • Descărcarea și încărcarea modelelor AI în Ollama
  • Interacțiunea cu modelele prin linia de comandă
  • Ingineria prompt-uri bazice pentru sarcini AI locale

Optimizarea Performanței și a Folosirii Resurselor

  • Gestionarea resurselor hardware pentru o execuție eficientă a modelelor AI
  • Reducerea întârzierilor și îmbunătățirea timpului de răspuns al modelului
  • Benchmark-ingul performanței pentru diferite modele

Cazuri de Utilizare pentru Deploy-ul AI Local

  • Chatbot-uri și asistenți virtuali alimentați prin inteligență artificială
  • Procesarea datelor și sarcini de automatizare
  • Aplicații AI orientate spre confidențialitate

Rezumat și Pași Următori

Cerințe

  • Comprehensia de bază a conceptelor de Inteligență Artificială și Machine Learning
  • Cunoașterea interfețelor liniei de comandă

Publicul Înțes

  • Dezvoltatori care rulează modele AI fără dependențe de cloud
  • Business profesioniști interesat de confidențialitatea AI și desfășurarea eficientă din punct de vedere costurilor
  • Enthusiasti ai Inteligenței Artificiale care exploră desfășurarea locală a modelelor
 7 ore

Numărul de participanți


Pret per participant

Upcoming Courses

Categorii înrudite