Course Outline

Pengantar Ollama untuk Penerapan LLM

  • Tinjauan umum kemampuan Ollama
  • Keuntungan penerapan model AI lokal
  • Perbandingan dengan solusi hosting AI berbasis cloud

Menyiapkan Lingkungan Penerapan

  • Menginstal Ollama dan dependensi yang diperlukan
  • Konfigurasi perangkat keras dan GPU akselerasi
  • Dockermengubah Ollama untuk penerapan yang dapat diskalakan

Menerapkan LLM dengan Ollama

  • Memuat dan mengelola model AI
  • Menyebarkan Llama 3, DeepSeek, Mistral, dan model lainnya
  • Membuat API dan titik akhir untuk akses model AI

Mengoptimalkan Kinerja LLM

  • Menyempurnakan model untuk efisiensi
  • Mengurangi latensi dan meningkatkan waktu respons
  • Mengelola alokasi memori dan sumber daya

Mengintegrasikan Ollama ke dalam Alur Kerja AI

  • Menghubungkan Ollama ke aplikasi dan layanan
  • Mengotomatiskan proses yang digerakkan oleh AI
  • Menggunakan Ollama di lingkungan komputasi tepi

Pemantauan dan Pemeliharaan

  • Melacak kinerja dan men-debug masalah
  • Memperbarui dan mengelola model AI
  • Memastikan keamanan dan kepatuhan dalam penerapan AI

Skala Penerapan Model AI

  • Praktik terbaik untuk menangani beban kerja tinggi
  • Skala Ollama untuk kasus penggunaan perusahaan
  • Kemajuan masa depan dalam penerapan model AI lokal

Ringkasan dan Langkah Berikutnya

Requirements

  • Pengalaman dasar dengan pembelajaran mesin dan model AI
  • Keakraban dengan antarmuka baris perintah dan skrip
  • Pemahaman tentang lingkungan penyebaran (lokal, edge, cloud)

Hadirin

  • Insinyur AI mengoptimalkan penerapan AI lokal dan berbasis cloud
  • Praktisi ML menerapkan dan menyempurnakan LLM
  • DevOps spesialis yang mengelola integrasi model AI
 14 Hours

Number of participants


Price per participant

Upcoming Courses (Minimal 5 peserta)

Related Categories