Local AI iş akışları, iş analitiği, panel oluşturma ve AI destekli raporlama için giderek popüler hale geliyor.
Ollama ve LivChart ile ekipler, AI modellerini yerel olarak çalıştırabilir ve dış bulut AI servislerine dayanmadan paneller oluşturabilir.
Bu rehberde şunları yapacağız:
- Ollama kurulumu
- Local AI modeli indirme
- Ollama API servisini başlatma
- Ollama'yı LivChart'a bağlama
- AI destekli panel oluşturma
- Analitik iş akışları için önerilen modelleri inceleme
Bu rehber pratik kurulum ve yapılandırmaya odaklanır.
Ne Gerekli?
Başlamadan önce şunlara sahip olduğunuzdan emin olun:
- Windows, Linux veya macOS sistemi
- En az 16 GB RAM önerilir
- Model indirmek için internet bağlantısı
- LivChart kurulu veya erişilebilir
- Temel terminal erişimi
Daha büyük modeller ve daha hızlı performans için ayrılmış bir GPU önerilir.
Adım 1 — Ollama Kurulumu
Ollama, büyük dil modellerini kendi makinenizde yerel olarak çalıştırmanızı sağlar.
macOS
Homebrew ile kurulum:
brew install ollama
Linux
Resmi kurulum betiğini çalıştırın:
curl -fsSL https://ollama.com/install.sh | sh
Windows
Resmi web sitesinden Ollama'yı indirin ve kurun.
Kurulumdan sonra doğrulayın:
ollama --version
Adım 2 — Local AI Modeli İndirme
Ollama kurulduktan sonra bir model indirin.
Örnek:
ollama run qwen2.5
Bu komut modeli indirir ve etkileşimli bir yerel AI oturumu başlatır.
Diğer modelleri de deneyebilirsiniz:
Gemma 3
ollama run gemma3
Llama 3
ollama run llama3
Mistral
ollama run mistral
İlk çalıştırma model boyutuna ve internet hızına bağlı olarak birkaç dakika sürebilir.
Adım 3 — Ollama API Servisini Başlatma
LivChart, Ollama ile yerel API servisi üzerinden iletişim kurar.
API sunucusunu başlatın:
ollama serve
Ollama varsayılan olarak şu adreste çalışır:
http://localhost:11434
API'yi test edebilirsiniz:
curl http://localhost:11434/api/tags
Her şey doğru çalışıyorsa, Ollama yüklü modellerin listesini döndürür.
Adım 4 — LivChart'ı Açma
LivChart, panel ve analitik iş akışları için local AI entegrasyonlarını destekler.
LivChart'ı açın ve AI yapılandırma bölümüne gidin.
Genellikle şunları yapılandırırsınız:
- AI sağlayıcısı
- Local API uç noktası
- Model seçimi
- Bağlantı ayarları
Local Ollama uç noktasını kullanın:
http://localhost:11434
Ardından yüklü modelinizi seçin.
Örnek:
qwen2.5
gemma3
llama3
Yapılandırmayı kaydettikten sonra bağlantıyı test edin.
Adım 5 — İlk AI Grafiğinizi Oluşturun
LivChart Ollama'ya bağlandığında, doğal dil kullanarak grafikler oluşturmaya başlayabilirsiniz.
Örnek prompt'lar:
Satış Paneli
Son 12 ayın aylık satış trendlerini göster
Stok Analizi
Depoya göre düşük stoklu ürünlerin grafiğini oluştur
Gelir Karşılaştırması
Çeyreklik gelir ve giderleri karşılaştır
Üretim Analitiği
Makineye göre üretim duruş sürelerini görselleştir
LivChart, prompt'larınıza dayalı panel bileşenleri ve grafikler oluşturur.
Model Ollama aracılığıyla yerel olarak çalıştığından, iş akışı tamamen self-hosted olarak kalır.
Analitik İçin Önerilen Ollama Modelleri
Farklı modeller analitik iş akışlarında farklı davranır.
İşte pratik öneriler.
| Model | Hız | Türkçe Desteği | Analitik Kalitesi | Donanım İhtiyacı |
|---|---|---|---|---|
| Qwen2.5 | Yüksek | Mükemmel | Çok İyi | Orta |
| Gemma 3 | Orta | İyi | İyi | Orta |
| Llama 3 | Orta | Orta | İyi | Orta |
| Mistral | Hızlı | Orta | Orta | Düşük |
Türk iş analitiği iş akışları için Qwen modelleri genellikle özellikle iyi performans gösterir.
Sık Karşılaşılan Kurulum Sorunları
Ollama API Yanıt Vermiyor
Servisin çalıştığından emin olun:
ollama serve
11434 portunun zaten kullanımda olup olmadığını kontrol edin.
Model Bulunamadı
Yüklü modelleri doğrulayın:
ollama list
Sık Karşılaşılan Kurulum Sorunları
Ollama API Yanıt Vermiyor
Servisin çalıştığından emin olun:
ollama serve
11434 portunun zaten kullanımda olup olmadığını kontrol edin.
Model Bulunamadı
Yüklü modelleri doğrulayın:
ollama list
Gerekirse eksik modeli tekrar indirin.
Yavaş Performans
Büyük modeller şu gereksinimlere ihtiyaç duyabilir:
- Daha fazla RAM
- GPU hızlandırma
- Daha küçük nicelemmiş modeller
Daha hızlı panel oluşturma için daha hafif modeller de deneyebilirsiniz.
Güvenlik Duvarı veya Yerel Ağ Sorunları
Bazı işletim sistemleri yerel API erişimini engeller.
Şunları doğrulayın:
- localhost erişimine izin verildiği
- güvenlik duvarı kurallarının 11434 portuna izin verdiği
- güvenlik yazılımının Ollama'yı engellemediği
Önerilen Donanım
Hafif analitik iş akışları için:
- Modern CPU
- 16 GB RAM
Daha büyük AI panelleri için:
- NVIDIA GPU önerilir
- 32 GB+ RAM
- SSD depolama
GPU hızlandırma, grafik oluşturma hızını ve yanıt sürelerini önemli ölçüde iyileştirebilir.
Örnek Local AI Analitik İş Akışı
Tipik bir kurulum şöyle görünebilir:
- İş verileri LivChart'a girer
- Ollama prompt'ları yerel olarak işler
- AI grafikler ve panel önerileri oluşturur
- Kullanıcılar analitiği etkileşimli olarak iyileştirir
- Paneller şirket altyapısı içinde kalır
Bu yaklaşım, AI destekli analitiği yerel altyapı esnekliğiyle birleştirir.
Sonuç
Ollama ve LivChart, local AI destekli panel sistemleri oluşturmak için pratik bir yol sunar.
Kuruluşlar, tamamen dış bulut AI servislerine dayanmak yerine modelleri yerel olarak çalıştırabilir ve doğrudan analitik iş akışlarına entegre edebilir.
Self-hosted AI panellerini keşfeden ekipler için bu kurulum şunları sunar:
- yerel AI işleme
- esnek model seçimi
- AI destekli grafik oluşturma
- azaltılmış bulut bağımlılığı
- tamamen özelleştirilebilir analitik iş akışları
Local AI benimsenmesi büyümeye devam ettikçe, Ollama ve LivChart'ı birleştirmek kuruluşların kendi altyapılarını kullanarak daha hızlı ve daha esnek analitik ortamlar oluşturmasına yardımcı olabilir.