Ollama Kurulum Rehberi, Windows,Linux ve MacOS için

Kapat
X
 
  • Zaman
  • Gösterim
Clear All
yeni mesajlar
  • ozkandonmez
    Administrator

    • 30-12-2002
    • 47289

    #1

    Ollama Kurulum Rehberi, Windows,Linux ve MacOS için

    Aşağıdaki metin, Ollama’nın resmî indirme ve dokümantasyon sayfalarındaki güncel kurulum komutları ve varsayılan davranışlara göre hazırlanmıştır. Linux/macOS için resmî kurulum script’i, Windows için PowerShell kurucusu, varsayılan yerel API adresi http://localhost:11434, yerelde kimlik doğrulama gerekmemesi ve model klasörü / ortam değişkeni bilgileri resmî kaynaklarla uyumludur.


    Ollama Kurulum Rehberi (Windows / Ubuntu / macOS) – Yerelde AI Model Çalıştırma

    Ollama, açık kaynak ve açık ağırlıklı büyük dil modellerini kendi bilgisayarınızda veya sunucunuzda çalıştırmanızı sağlayan pratik bir sistemdir. En büyük avantajı; modeli yerelde çalıştırdığı için veriyi dış servislere göndermeden sohbet, kod, özet, RAG ve API tabanlı AI işleri yapabilmenizdir.

    [hr]

    1) Ollama nedir, ne işe yarar?
    • Yerelde LLM çalıştırır
    • Terminalden veya API ile kullanılabilir
    • Windows / Linux / macOS destekler
    • Model indirip tek komutla çalıştırır
    • Open WebUI, AnythingLLM, n8n ve benzeri araçlarla birlikte kullanılabilir


    [hr]

    2) Kurulum öncesi kısa not
    • İlk kurulumdan sonra ayrıca model dosyaları indirilecektir.
    • Bu model dosyaları birkaç GB ile onlarca GB arasında olabilir.
    • Sadece CPU ile çalışabilir ama GPU varsa performans ciddi şekilde artar.
    • Yerelde varsayılan API adresi: http://localhost:11434


    [hr]

    3) Windows kurulumu

    Yöntem 1 – Resmî PowerShell komutu

    Code:
    irm https://ollama.com/install.ps1 | iex
    Kurulum tamamlanınca yeni bir PowerShell penceresi açıp test edin:

    Code:
    ollama
    İlk model testi:

    Code:
    ollama run gemma3
    Alternatif olarak resmî Windows kurulum dosyasını indirip normal program kurar gibi de kurabilirsiniz.

    Windows’ta model klasörü varsayılan konum:

    Code:
    C:\Users\KULLANICI_ADI\.ollama\models
    Farklı diske almak isterseniz kullanıcı ortam değişkeni olarak şunu tanımlayın:

    Code:
    OLLAMA_MODELS=D:\OllamaModels
    [hr]

    4) Ubuntu / Debian / genel Linux kurulumu

    En pratik resmî kurulum:

    Code:
    curl -fsSL https://ollama.com/install.sh | sh
    Kurulum sonrası servis durumunu kontrol edin:

    Code:
    systemctl status ollama
    Servis çalışmıyorsa başlatın:

    Code:
    sudo systemctl enable --now ollama
    İlk test:

    Code:
    ollama
    İlk model testi:

    Code:
    ollama run gemma3
    Linux’ta model klasörü varsayılan konum:

    Code:
    /usr/share/ollama/.ollama/models
    Farklı diske taşımak için örnek:

    Code:
    sudo mkdir -p /data/ollama-models
    sudo chown -R ollama:ollama /data/ollama-models
    sudo systemctl edit ollama
    Açılan override içine şunu ekleyin:

    Code:
    [Service]
    Environment="OLLAMA_MODELS=/data/ollama-models"
    Sonra:

    Code:
    sudo systemctl daemon-reload
    sudo systemctl restart ollama
    [hr]

    5) macOS kurulumu

    macOS tarafında en temiz yöntem, resmî .dmg dosyasını indirip Applications klasörüne sürükleyerek kurmaktır.

    İsterseniz terminalden kurulum script’i de kullanılabilir:

    Code:
    curl -fsSL https://ollama.com/install.sh | sh
    Kurulumdan sonra terminalde test edin:

    Code:
    ollama
    İlk model testi:

    Code:
    ollama run gemma3
    macOS model klasörü varsayılan konum:

    Code:
    ~/.ollama/models
    [hr]

    6) İlk kullanım – temel komutlar

    Model çalıştırma:

    Code:
    ollama run gemma3
    Farklı model çalıştırma:

    Code:
    ollama run qwen3
    Code:
    ollama run llama3.2
    Kurulu modelleri listeleme:

    Code:
    ollama list
    Yüklü modeli silme:

    Code:
    ollama rm gemma3
    Sürüm kontrolü:

    Code:
    ollama --version
    [hr]

    7) API ile test etme

    Ollama kurulduğunda yerel API otomatik olarak açılır.

    Basit generate testi:

    Code:
    curl http://localhost:11434/api/generate -d '{
      "model": "gemma3",
      "prompt": "Merhaba, kendini tanıt."
    }'
    Chat API testi:

    Code:
    curl http://localhost:11434/api/chat -d '{
      "model": "gemma3",
      "messages": [
        { "role": "user", "content": "Merhaba" }
      ]
    }'
    Kurulu modelleri API ile görme:

    Code:
    curl http://localhost:11434/api/tags
    [hr]

    8) Ağdan erişim (dikkatli kullanın)

    Ollama varsayılan olarak sadece 127.0.0.1:11434 adresine bağlanır. Yani aynı makineden erişilir, dış ağdan erişim kapalıdır.

    Ağdan erişime açmak isterseniz ortam değişkeni kullanabilirsiniz:

    Code:
    OLLAMA_HOST=0.0.0.0:11434 ollama serve
    Ama bunu yaparken:
    • Güvenlik duvarı kuralları ekleyin
    • Mümkünse ters proxy kullanın
    • Açık internete doğrudan vermeyin


    [hr]

    9) Güncelleme

    Linux:

    Code:
    curl -fsSL https://ollama.com/install.sh | sh
    Windows ve macOS:

    Genelde uygulama kendi güncellemeyi indirir; gerekirse son sürümü tekrar kurabilirsiniz.

    [hr]

    10) Sık görülen sorunlar

    Sorun: “ollama komutu bulunamadı”
    • Terminali kapatıp yeniden açın
    • Windows’ta PowerShell’i yeniden başlatın
    • Linux/macOS’ta PATH’in güncellenmiş olduğundan emin olun


    Sorun: model çok yavaş
    • Büyük model seçmiş olabilirsiniz
    • GPU sürücüsü eksik olabilir
    • Daha küçük model deneyin: gemma3 / llama3.2 / qwen3 gibi


    Sorun: disk doluyor
    • Model klasörünü ayrı diske taşıyın
    • Kullanmadığınız modelleri silin


    Sorun: ağdaki başka cihaz erişemiyor
    • Varsayılan olarak localhost’a bağlıdır
    • OLLAMA_HOST ayarı gerekir
    • Firewall ve port açılması gerekir


    [hr]

    11) Yeni başlayanlar için tavsiye edilen ilk komutlar

    Windows:
    Code:
    irm https://ollama.com/install.ps1 | iex
    ollama run gemma3
    Ubuntu/Linux:
    Code:
    curl -fsSL https://ollama.com/install.sh | sh
    ollama run gemma3
    API testi:
    Code:
    curl http://localhost:11434/api/generate -d '{
      "model": "gemma3",
      "prompt": "Ollama nedir?"
    }'
    [hr]

    12) Sonuç

    Ollama, yerelde AI modeli çalıştırmak için şu anda en pratik sistemlerden biridir. Kurulum basittir, API’si hazır gelir ve farklı arayüzlerle kolayca entegre edilebilir. Özellikle veri gizliliği isteyenler, kendi sunucusunda model çalıştırmak isteyenler ve forum / ERP / otomasyon projelerinde AI altyapısı kurmak isteyenler için oldukça uygundur.

    Resmî bağlantılar:​Kurulum komutları, varsayılan API tabanı, yerel erişimde auth gerekmemesi, OLLAMA_HOST ile bind adresi değiştirme, OLLAMA_MODELS ile model klasörü değiştirme ve Linux’ta systemctl edit ollama ile servis özelleştirme adımları resmî dökümantasyonda yer alıyor.​
    Üyelere Özel Konuları Görebilmek İçin Lütfen ÜYE GİRİŞİ Yapınız

    Yatırım, bilgi, yorum ve tavsiyeleri yatırım danışmanlığı kapsamında değildir. Yatırım danışmanlığı hizmeti, Sermaye Piyasası Kurulu tarafından yayımlanan Seri:V, No:52 Sayılı "Yatırım Danışmanlığı Faaliyetine ve Bu Faaliyette Bulunacak Kurumlara İlişkin Esaslar Hakkında Tebliğ" çerçevesinde aracı kurumlar, portföy yönetim şirketleri, mevduat kabul etmeyen bankalar ile müşteri arasında imzalanacak yatırım danışmanlığı sözleşmesi çevresinde sunulmaktadır.
    Burada ulaşılan sonuçlar tercih edilen hesaplama yöntemi ve/veya yorum ve tavsiyede bulunanların kişisel görüşlerine dayanmakta olup, mali durumunuz ile risk ve getiri tercihlerinize uygun olmayabileceğinden sadece burada yer alan bilgilere dayanılarak yatırım kararı verilmesi sağlıklı sonuçlar doğurmayabilir.
    Yatırımcıların verecekleri yatırım kararları ile bu sitede bulunan veriler, görüş ve bilgi arasında bir bağlantı kurulamayacağı gibi, söz konusu yorum/görüş/bilgilere dayanılarak alınacak kararların neticesinde oluşabilecek yanlışlık veya zararlardan www.ozmena.net web sitesi ve/veya yöneticileri sorumlu tutulmaz.

    HAYDI IPTV YAPALIM

    TBS 6991 Dual Tuner Dual CI Tv kartı linux sürücü yükleme

    LÜTFEN OKUYUN
İşlem Yapılıyor