Aşağıdaki metin, Ollama’nın resmî indirme ve dokümantasyon sayfalarındaki güncel kurulum komutları ve varsayılan davranışlara göre hazırlanmıştır. Linux/macOS için resmî kurulum script’i, Windows için PowerShell kurucusu, varsayılan yerel API adresi http://localhost:11434, yerelde kimlik doğrulama gerekmemesi ve model klasörü / ortam değişkeni bilgileri resmî kaynaklarla uyumludur.
Ollama Kurulum Rehberi (Windows / Ubuntu / macOS) – Yerelde AI Model Çalıştırma
Ollama, açık kaynak ve açık ağırlıklı büyük dil modellerini kendi bilgisayarınızda veya sunucunuzda çalıştırmanızı sağlayan pratik bir sistemdir. En büyük avantajı; modeli yerelde çalıştırdığı için veriyi dış servislere göndermeden sohbet, kod, özet, RAG ve API tabanlı AI işleri yapabilmenizdir.
[hr]
1) Ollama nedir, ne işe yarar?
[hr]
2) Kurulum öncesi kısa not
[hr]
3) Windows kurulumu
Yöntem 1 – Resmî PowerShell komutu
Kurulum tamamlanınca yeni bir PowerShell penceresi açıp test edin:
İlk model testi:
Alternatif olarak resmî Windows kurulum dosyasını indirip normal program kurar gibi de kurabilirsiniz.
Windows’ta model klasörü varsayılan konum:
Farklı diske almak isterseniz kullanıcı ortam değişkeni olarak şunu tanımlayın:
[hr]
4) Ubuntu / Debian / genel Linux kurulumu
En pratik resmî kurulum:
Kurulum sonrası servis durumunu kontrol edin:
Servis çalışmıyorsa başlatın:
İlk test:
İlk model testi:
Linux’ta model klasörü varsayılan konum:
Farklı diske taşımak için örnek:
Açılan override içine şunu ekleyin:
Sonra:
[hr]
5) macOS kurulumu
macOS tarafında en temiz yöntem, resmî .dmg dosyasını indirip Applications klasörüne sürükleyerek kurmaktır.
İsterseniz terminalden kurulum script’i de kullanılabilir:
Kurulumdan sonra terminalde test edin:
İlk model testi:
macOS model klasörü varsayılan konum:
[hr]
6) İlk kullanım – temel komutlar
Model çalıştırma:
Farklı model çalıştırma:
Kurulu modelleri listeleme:
Yüklü modeli silme:
Sürüm kontrolü:
[hr]
7) API ile test etme
Ollama kurulduğunda yerel API otomatik olarak açılır.
Basit generate testi:
Chat API testi:
Kurulu modelleri API ile görme:
[hr]
8) Ağdan erişim (dikkatli kullanın)
Ollama varsayılan olarak sadece 127.0.0.1:11434 adresine bağlanır. Yani aynı makineden erişilir, dış ağdan erişim kapalıdır.
Ağdan erişime açmak isterseniz ortam değişkeni kullanabilirsiniz:
Ama bunu yaparken:
[hr]
9) Güncelleme
Linux:
Windows ve macOS:
Genelde uygulama kendi güncellemeyi indirir; gerekirse son sürümü tekrar kurabilirsiniz.
[hr]
10) Sık görülen sorunlar
Sorun: “ollama komutu bulunamadı”
Sorun: model çok yavaş
Sorun: disk doluyor
Sorun: ağdaki başka cihaz erişemiyor
[hr]
11) Yeni başlayanlar için tavsiye edilen ilk komutlar
Windows:
Ubuntu/Linux:
API testi:
[hr]
12) Sonuç
Ollama, yerelde AI modeli çalıştırmak için şu anda en pratik sistemlerden biridir. Kurulum basittir, API’si hazır gelir ve farklı arayüzlerle kolayca entegre edilebilir. Özellikle veri gizliliği isteyenler, kendi sunucusunda model çalıştırmak isteyenler ve forum / ERP / otomasyon projelerinde AI altyapısı kurmak isteyenler için oldukça uygundur.
Resmî bağlantılar:Kurulum komutları, varsayılan API tabanı, yerel erişimde auth gerekmemesi, OLLAMA_HOST ile bind adresi değiştirme, OLLAMA_MODELS ile model klasörü değiştirme ve Linux’ta systemctl edit ollama ile servis özelleştirme adımları resmî dökümantasyonda yer alıyor.
Ollama Kurulum Rehberi (Windows / Ubuntu / macOS) – Yerelde AI Model Çalıştırma
Ollama, açık kaynak ve açık ağırlıklı büyük dil modellerini kendi bilgisayarınızda veya sunucunuzda çalıştırmanızı sağlayan pratik bir sistemdir. En büyük avantajı; modeli yerelde çalıştırdığı için veriyi dış servislere göndermeden sohbet, kod, özet, RAG ve API tabanlı AI işleri yapabilmenizdir.
[hr]
1) Ollama nedir, ne işe yarar?
- Yerelde LLM çalıştırır
- Terminalden veya API ile kullanılabilir
- Windows / Linux / macOS destekler
- Model indirip tek komutla çalıştırır
- Open WebUI, AnythingLLM, n8n ve benzeri araçlarla birlikte kullanılabilir
[hr]
2) Kurulum öncesi kısa not
- İlk kurulumdan sonra ayrıca model dosyaları indirilecektir.
- Bu model dosyaları birkaç GB ile onlarca GB arasında olabilir.
- Sadece CPU ile çalışabilir ama GPU varsa performans ciddi şekilde artar.
- Yerelde varsayılan API adresi: http://localhost:11434
[hr]
3) Windows kurulumu
Yöntem 1 – Resmî PowerShell komutu
Code:
irm https://ollama.com/install.ps1 | iex
Code:
ollama
Code:
ollama run gemma3
Windows’ta model klasörü varsayılan konum:
Code:
C:\Users\KULLANICI_ADI\.ollama\models
Code:
OLLAMA_MODELS=D:\OllamaModels
4) Ubuntu / Debian / genel Linux kurulumu
En pratik resmî kurulum:
Code:
curl -fsSL https://ollama.com/install.sh | sh
Code:
systemctl status ollama
Code:
sudo systemctl enable --now ollama
Code:
ollama
Code:
ollama run gemma3
Code:
/usr/share/ollama/.ollama/models
Code:
sudo mkdir -p /data/ollama-models sudo chown -R ollama:ollama /data/ollama-models sudo systemctl edit ollama
Code:
[Service] Environment="OLLAMA_MODELS=/data/ollama-models"
Code:
sudo systemctl daemon-reload sudo systemctl restart ollama
5) macOS kurulumu
macOS tarafında en temiz yöntem, resmî .dmg dosyasını indirip Applications klasörüne sürükleyerek kurmaktır.
İsterseniz terminalden kurulum script’i de kullanılabilir:
Code:
curl -fsSL https://ollama.com/install.sh | sh
Code:
ollama
Code:
ollama run gemma3
Code:
~/.ollama/models
6) İlk kullanım – temel komutlar
Model çalıştırma:
Code:
ollama run gemma3
Code:
ollama run qwen3
Code:
ollama run llama3.2
Code:
ollama list
Code:
ollama rm gemma3
Code:
ollama --version
7) API ile test etme
Ollama kurulduğunda yerel API otomatik olarak açılır.
Basit generate testi:
Code:
curl http://localhost:11434/api/generate -d '{
"model": "gemma3",
"prompt": "Merhaba, kendini tanıt."
}'
Code:
curl http://localhost:11434/api/chat -d '{
"model": "gemma3",
"messages": [
{ "role": "user", "content": "Merhaba" }
]
}'
Code:
curl http://localhost:11434/api/tags
8) Ağdan erişim (dikkatli kullanın)
Ollama varsayılan olarak sadece 127.0.0.1:11434 adresine bağlanır. Yani aynı makineden erişilir, dış ağdan erişim kapalıdır.
Ağdan erişime açmak isterseniz ortam değişkeni kullanabilirsiniz:
Code:
OLLAMA_HOST=0.0.0.0:11434 ollama serve
- Güvenlik duvarı kuralları ekleyin
- Mümkünse ters proxy kullanın
- Açık internete doğrudan vermeyin
[hr]
9) Güncelleme
Linux:
Code:
curl -fsSL https://ollama.com/install.sh | sh
Genelde uygulama kendi güncellemeyi indirir; gerekirse son sürümü tekrar kurabilirsiniz.
[hr]
10) Sık görülen sorunlar
Sorun: “ollama komutu bulunamadı”
- Terminali kapatıp yeniden açın
- Windows’ta PowerShell’i yeniden başlatın
- Linux/macOS’ta PATH’in güncellenmiş olduğundan emin olun
Sorun: model çok yavaş
- Büyük model seçmiş olabilirsiniz
- GPU sürücüsü eksik olabilir
- Daha küçük model deneyin: gemma3 / llama3.2 / qwen3 gibi
Sorun: disk doluyor
- Model klasörünü ayrı diske taşıyın
- Kullanmadığınız modelleri silin
Sorun: ağdaki başka cihaz erişemiyor
- Varsayılan olarak localhost’a bağlıdır
- OLLAMA_HOST ayarı gerekir
- Firewall ve port açılması gerekir
[hr]
11) Yeni başlayanlar için tavsiye edilen ilk komutlar
Windows:
Code:
irm https://ollama.com/install.ps1 | iex ollama run gemma3
Code:
curl -fsSL https://ollama.com/install.sh | sh ollama run gemma3
Code:
curl http://localhost:11434/api/generate -d '{
"model": "gemma3",
"prompt": "Ollama nedir?"
}'
12) Sonuç
Ollama, yerelde AI modeli çalıştırmak için şu anda en pratik sistemlerden biridir. Kurulum basittir, API’si hazır gelir ve farklı arayüzlerle kolayca entegre edilebilir. Özellikle veri gizliliği isteyenler, kendi sunucusunda model çalıştırmak isteyenler ve forum / ERP / otomasyon projelerinde AI altyapısı kurmak isteyenler için oldukça uygundur.
Resmî bağlantılar:Kurulum komutları, varsayılan API tabanı, yerel erişimde auth gerekmemesi, OLLAMA_HOST ile bind adresi değiştirme, OLLAMA_MODELS ile model klasörü değiştirme ve Linux’ta systemctl edit ollama ile servis özelleştirme adımları resmî dökümantasyonda yer alıyor.
