Ollama, açık kaynak LLM'leri bilgisayarınızda yerel olarak çalıştırmanızı sağlayan bir araçtır. İnternet bağlantısı gerekmez, verileriniz bilgisayarınızdan çıkmaz. macOS, Linux ve Windows destekler.
brew install ollamaveya ollama.com'dan .dmg indir
curl -fsSL https://ollama.com/install.sh | shwinget install Ollama.Ollamaveya ollama.com'dan .exe indir
| Model Boyutu | Min. RAM | GPU (Opsiyonel) | Örnek Modeller |
|---|---|---|---|
| 0.5B – 1.7B | 4 GB | Gerek yok | Qwen3 0.6B, SmolLM2, Gemma 3 1B |
| 3B – 4B | 8 GB | 4GB+ VRAM önerilir | Qwen2.5 3B, Llama 3.2 3B, Phi-3 Mini |
| 7B – 9B | 16 GB | 8GB+ VRAM önerilir | Qwen3 8B, Llama 3.1 8B, Mistral 7B |
| 12B – 14B | 24 GB | 12GB+ VRAM önerilir | DeepSeek-R1 14B, Mistral NeMo 12B |
| 30B+ (MoE) | 16 GB* | 8GB+ VRAM | Qwen3 30B-A3B — *MoE sadece 3B aktif |
Ollama kurduktan sonra terminali açın ve aşağıdaki komutu yapıştırın. Model otomatik indirilir ve sohbet başlar:
ollama run qwen3:8bAşağıdan model seçtiğinizde bu komut otomatik güncellenir.