Ollama
Chạy LLM trên máy local dễ nhất — hỗ trợ 100+ models, 3 lệnh là xong
Tool phổ biến nhất để chạy LLM local. Hỗ trợ Llama, DeepSeek, Gemma, Qwen, Phi và 100+ models khác. Cài đặt cực đơn giản: curl install → ollama pull → ollama run. Tự động quản lý GPU/CPU, quantizat...