Aşağıdaki metin, Google AI ve Ollama’nın güncel resmî sayfalarına göre hazırlanmıştır. Gemma 4’ün Ollama kütüphanesinde gemma4:e2b, gemma4:e4b, gemma4:26b ve gemma4:31b etiketleriyle yayınlandığı; e4b etiketinin aynı zamanda latest olduğu; küçük modellerde 128K, büyüklerde 256K context bulunduğu; Ollama tarafında şu an metin + görsel giriş desteğinin listelendiği doğrulanıyor.
Google Gemma 4 + Ollama Kurulum Rehberi (Windows / Ubuntu)
Google’ın yeni Gemma 4 model ailesi artık Ollama üzerinden de çok kolay şekilde kurulup çalıştırılabiliyor. Bu rehberde sıfırdan Ollama kurulumu, ardından Gemma 4 modelini indirme, ilk test, API kullanımı ve hangi modeli seçmek gerekir kısmını sade şekilde anlatıyorum.
1) Gemma 4 nedir?
Gemma 4, Google DeepMind’in açık ağırlıklı yeni model ailesidir. Ollama tarafında şu an şu etiketlerle kullanılabiliyor:
Kısa not:
2) Hangi modeli seçmeliyim?
Yeni başlayanlar için genel tavsiye:
Ollama kütüphanesinde görünen yaklaşık model boyutları:
Bu değerler indirilen quant model paket boyutlarıdır; rahat kullanım için sistemde daha fazla boş alan ve RAM / VRAM gerekebilir.
3) Windows’ta Ollama kurulumu
PowerShell açın ve şu komutu çalıştırın:
Kurulum bittikten sonra yeni PowerShell penceresi açın ve test edin:
Sonra Gemma 4 modelini indirin ve çalıştırın:
Daha hafif model isterseniz:
Daha güçlü model isterseniz:
4) Ubuntu / Debian / Linux’ta Ollama kurulumu
Terminal açın ve şunu çalıştırın:
Kurulum sonrası servisi başlatın:
Sonra Gemma 4 modelini indirin:
Alternatifler:
5) İlk test nasıl yapılır?
Model indirildikten sonra doğrudan terminal içinde sohbet açılır. Örnek:
Açıldıktan sonra şunu yazabilirsiniz:
Kod testi için:
Uzun belge özeti testi için:
6) Kurulu modelleri listeleme
Bir modeli silmek için:
Sürüm görmek için:
7) API ile kullanma
Ollama çalışınca yerel API genelde otomatik açılır:
http://localhost:11434
Basit test:
Chat biçimiyle kullanım:
Kurulu modelleri API ile görmek için:
8) Görsel anlama desteği
Gemma 4 ailesi çok kipli yapıdadır. Ollama kütüphanesinde Gemma 4 için Text + Image giriş desteği listeleniyor. Yani ekran görüntüsü, ürün fotoğrafı, belge resmi, tablo ekranı gibi görseller üzerinde yorumlama yapılabilir.
Bu özellik özellikle şu işlerde faydalıdır:
Not:
9) Performans ve donanım notları
Pratik öneri:
10) Sık karşılaşılan sorunlar
Sorun: ollama komutu bulunamadı
Sorun: model çok yavaş
Sorun: disk çabuk doluyor
Sorun: API çalışmıyor
11) En pratik başlangıç komutları
Windows:
Ubuntu/Linux:
Daha hafif sürüm:
Daha güçlü sürüm:
12) Kısa sonuç
Gemma 4, Ollama ile birlikte yerelde çalıştırması en kolay yeni nesil açık model ailelerinden biri oldu. Hafif sistemlerde e2b, genel kullanımda e4b, güçlü workstation tarafında ise 26b ve 31b öne çıkıyor. Özellikle Türkçe sohbet, kod yazdırma, belge analizi, uzun context ve görsel yorumlama tarafında ciddi potansiyel taşıyor.
Google Gemma 4 + Ollama Kurulum Rehberi (Windows / Ubuntu)
Google’ın yeni Gemma 4 model ailesi artık Ollama üzerinden de çok kolay şekilde kurulup çalıştırılabiliyor. Bu rehberde sıfırdan Ollama kurulumu, ardından Gemma 4 modelini indirme, ilk test, API kullanımı ve hangi modeli seçmek gerekir kısmını sade şekilde anlatıyorum.
1) Gemma 4 nedir?
Gemma 4, Google DeepMind’in açık ağırlıklı yeni model ailesidir. Ollama tarafında şu an şu etiketlerle kullanılabiliyor:
- gemma4:e2b → en hafif seçenek
- gemma4:e4b → dengeli ve pratik ana model
- gemma4:26b → daha güçlü workstation seviyesi model
- gemma4:31b → en güçlü dense model
Kısa not:
- E2B ve E4B modelleri 128K context ile geliyor.
- 26B ve 31B modelleri 256K context ile geliyor.
- Ollama kütüphanesinde şu an Text + Image giriş desteği listeleniyor.
- Google Gemma 4 ailesinde küçük modeller için ses yeteneğinden de bahsediyor; fakat Ollama tarafında yayınlanan model kartında esas görünen kullanım metin + görsel giriş şeklindedir.
2) Hangi modeli seçmeliyim?
Yeni başlayanlar için genel tavsiye:
- Düşük VRAM / hafif sistem → gemma4:e2b
- En mantıklı günlük kullanım → gemma4:e4b
- Güçlü workstation / yüksek kalite → gemma4:26b
- En yüksek yerel kalite → gemma4:31b
Ollama kütüphanesinde görünen yaklaşık model boyutları:
- gemma4:e2b → yaklaşık 7.2 GB
- gemma4:e4b → yaklaşık 9.6 GB
- gemma4:26b → yaklaşık 18 GB
- gemma4:31b → yaklaşık 20 GB
Bu değerler indirilen quant model paket boyutlarıdır; rahat kullanım için sistemde daha fazla boş alan ve RAM / VRAM gerekebilir.
3) Windows’ta Ollama kurulumu
PowerShell açın ve şu komutu çalıştırın:
Code:
irm https://ollama.com/install.ps1 | iex
Code:
ollama
Code:
ollama run gemma4:e4b
Code:
ollama run gemma4:e2b
Code:
ollama run gemma4:26b
Code:
ollama run gemma4:31b
4) Ubuntu / Debian / Linux’ta Ollama kurulumu
Terminal açın ve şunu çalıştırın:
Code:
curl -fsSL https://ollama.com/install.sh | sh
Code:
sudo systemctl enable --now ollama sudo systemctl status ollama
Code:
ollama run gemma4:e4b
Code:
ollama run gemma4:e2b
Code:
ollama run gemma4:26b
Code:
ollama run gemma4:31b
5) İlk test nasıl yapılır?
Model indirildikten sonra doğrudan terminal içinde sohbet açılır. Örnek:
Code:
ollama run gemma4:e4b
Code:
Türkçe olarak kendini tanıt ve Gemma 4'ün ne işe yaradığını açıkla.
Code:
Python ile klasördeki tüm txt dosyalarını birleştiren örnek kod yaz.
Code:
Aşağıdaki metni maddeler halinde özetle:
6) Kurulu modelleri listeleme
Code:
ollama list
Code:
ollama rm gemma4:e2b
Code:
ollama --version
7) API ile kullanma
Ollama çalışınca yerel API genelde otomatik açılır:
http://localhost:11434
Basit test:
Code:
curl http://localhost:11434/api/generate -d '{
"model": "gemma4:e4b",
"prompt": "Gemma 4 nedir, sade Türkçe anlat."
}'
Code:
curl http://localhost:11434/api/chat -d '{
"model": "gemma4:e4b",
"messages": [
{ "role": "system", "content": "Kısa ve net cevap ver." },
{ "role": "user", "content": "Gemma 4 ile neler yapılabilir?" }
]
}'
Code:
curl http://localhost:11434/api/tags
8) Görsel anlama desteği
Gemma 4 ailesi çok kipli yapıdadır. Ollama kütüphanesinde Gemma 4 için Text + Image giriş desteği listeleniyor. Yani ekran görüntüsü, ürün fotoğrafı, belge resmi, tablo ekranı gibi görseller üzerinde yorumlama yapılabilir.
Bu özellik özellikle şu işlerde faydalıdır:
- Ekran görüntüsü açıklatma
- Belge / PDF ekran görüntüsünden özet çıkarma
- Ürün veya parça fotoğrafını yorumlatma
- OCR benzeri akışlarda destek alma
Not:
- Metin modeli gibi sadece yazı ile de kullanılabilir.
- Görsel işlerinde daha güçlü sistemlerde performans daha iyi olur.
9) Performans ve donanım notları
- gemma4:e2b en hafif seçenektir.
- gemma4:e4b çoğu kullanıcı için en mantıklı günlük dengedir.
- gemma4:26b ve 31b tarafı güçlü RAM / VRAM isteyen sınıfa girer.
- CPU ile çalıştırmak mümkündür ama yavaş olabilir.
- NVIDIA GPU varsa tecrübe belirgin şekilde iyileşir.
Pratik öneri:
- 8–12 GB VRAM civarı → önce e2b
- 12–16 GB ve üstü → e4b daha mantıklı
- 24 GB sınıfı ve üstü → 26b denenebilir
- Daha büyük RAM / VRAM / güçlü workstation → 31b
10) Sık karşılaşılan sorunlar
Sorun: ollama komutu bulunamadı
- Terminal / PowerShell kapatılıp yeniden açılmalı
- Kurulum yarım kaldıysa tekrar kurulmalı
Sorun: model çok yavaş
- Daha büyük model seçilmiş olabilir
- Önce gemma4:e2b veya gemma4:e4b denenmeli
- GPU sürücüleri kontrol edilmeli
Sorun: disk çabuk doluyor
- Model dosyaları büyük olabilir
- Kullanılmayan modeller silinmeli
- Model klasörü farklı diske taşınabilir
Sorun: API çalışmıyor
- Önce Ollama servisinin ayakta olduğundan emin olun
- Yerel adres olarak http://localhost:11434 kontrol edin
11) En pratik başlangıç komutları
Windows:
Code:
irm https://ollama.com/install.ps1 | iex ollama run gemma4:e4b
Code:
curl -fsSL https://ollama.com/install.sh | sh sudo systemctl enable --now ollama ollama run gemma4:e4b
Code:
ollama run gemma4:e2b
Code:
ollama run gemma4:26b
12) Kısa sonuç
Gemma 4, Ollama ile birlikte yerelde çalıştırması en kolay yeni nesil açık model ailelerinden biri oldu. Hafif sistemlerde e2b, genel kullanımda e4b, güçlü workstation tarafında ise 26b ve 31b öne çıkıyor. Özellikle Türkçe sohbet, kod yazdırma, belge analizi, uzun context ve görsel yorumlama tarafında ciddi potansiyel taşıyor.
