Schița de curs

Introducere în Ollama

  • Ce este Ollama și cum funcționează?
  • Beneficiile rulării modelelor de AI local
  • Prezentare generală a LLMs suportate (Llama, DeepSeek, Mistral, etc.)

Instalarea și Configurarea Ollama

  • Cerințe de sistem și considerații hardware
  • Instalarea Ollama pe diferite sisteme de operare
  • Configurarea dependențelor și a mediului

Rularea Modelelor de AI Local

  • Descărcarea și încărcarea modelelor de AI în Ollama
  • Interacțiunea cu modelele prin linia de comandă
  • Ingineria de prompturi de bază pentru sarcinile de AI local

Optimizarea Performanței și Utilizării Resurselor

  • Gestionarea resurselor hardware pentru o execuție eficientă a AI
  • Reducerea latenței și îmbunătățirea timpului de răspuns al modelului
  • Benchmarkingul performanței pentru diferite modele

Cazuri de Utilizare pentru Implementarea Locală a AI

  • Chatbot-uri și asistenți virtuali alimentați de AI
  • Sarcini de procesare a datelor și automatizare
  • Aplicații de AI axate pe confidențialitate

Rezumat și Pași Următori

Cerințe

  • Înțelegere de bază a conceptelor de AI și învățare automată
  • Familiaritate cu interfețele de linie de comandă

Publicul țintă

  • Dezvoltatori care rulează modele de AI fără dependențe de cloud
  • Profesioniști din afaceri interesați de confidențialitatea AI și de implementarea rentabilă
  • Pasionați de AI care explorează implementarea locală a modelelor
 7 Ore

Numărul de participanți


Pret per participant

Cursuri viitoare

Categorii înrudite