Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Course Outline
Pengantar Ollama untuk Penerapan LLM
- Tinjauan umum kemampuan Ollama
- Keuntungan penerapan model AI lokal
- Perbandingan dengan solusi hosting AI berbasis cloud
Menyiapkan Lingkungan Penerapan
- Menginstal Ollama dan dependensi yang diperlukan
- Konfigurasi perangkat keras dan GPU akselerasi
- Dockermengubah Ollama untuk penerapan yang dapat diskalakan
Menerapkan LLM dengan Ollama
- Memuat dan mengelola model AI
- Menyebarkan Llama 3, DeepSeek, Mistral, dan model lainnya
- Membuat API dan titik akhir untuk akses model AI
Mengoptimalkan Kinerja LLM
- Menyempurnakan model untuk efisiensi
- Mengurangi latensi dan meningkatkan waktu respons
- Mengelola alokasi memori dan sumber daya
Mengintegrasikan Ollama ke dalam Alur Kerja AI
- Menghubungkan Ollama ke aplikasi dan layanan
- Mengotomatiskan proses yang digerakkan oleh AI
- Menggunakan Ollama di lingkungan komputasi tepi
Pemantauan dan Pemeliharaan
- Melacak kinerja dan men-debug masalah
- Memperbarui dan mengelola model AI
- Memastikan keamanan dan kepatuhan dalam penerapan AI
Skala Penerapan Model AI
- Praktik terbaik untuk menangani beban kerja tinggi
- Skala Ollama untuk kasus penggunaan perusahaan
- Kemajuan masa depan dalam penerapan model AI lokal
Ringkasan dan Langkah Berikutnya
Requirements
- Pengalaman dasar dengan pembelajaran mesin dan model AI
- Keakraban dengan antarmuka baris perintah dan skrip
- Pemahaman tentang lingkungan penyebaran (lokal, edge, cloud)
Hadirin
- Insinyur AI mengoptimalkan penerapan AI lokal dan berbasis cloud
- Praktisi ML menerapkan dan menyempurnakan LLM
- DevOps spesialis yang mengelola integrasi model AI
14 Hours