TL;DR: Content Intelligence System, semantic search (kpy), link analizi (klinks), performance metrikleri (kperf) ve RAG orchestration’ı (krag) birleştiren bir içerik analiz sistemi. LLM’ler otomatik tool seçimi yaparak doğal dil sorularına veri bazlı yanıtlar üretiyor. Local (Ollama) veya cloud (Claude, OpenAI) modeller destekleniyor.
Geniş dil modelleri (GDM) (İngilizce: Large Language Model - LLM) ve paralelde kullanmaya başladığımız protokoller (MCP - Model Context Protocol), SDK’lar (Software Development Kit) ve agent mimarileri iş yapış biçimlerini önemli ölçüde değiştiriyor.
İçerik üretimi artık sadece içerik üretimi bağlamında kalmıyor. SEO (Search Engine Optimization) yaklaşımları, kullanıcı deneyimi optimizasyonu, reklamlar, otomasyonlar, cross-channel (çok kanallı) stratejiler… bunların hepsi kullanıcı davranışları, arama niyetleri ve dönüşüm yolculukları ile iç içe geçiyor.
Bu karmaşık yapıyı anlamlandırmak, funnel’lardaki (dönüşüm hunisi) friction’ları (engeller) ve leakage noktalarını (kayıp noktaları) tespit edip ortadan kaldırmak artık daha kolay hale geliyor. Ekipler arası iletişim tıkanmaları ve veri siloları bir noktada ortadan kalkıyor. Skill’ler ile agent’lar, MCP’ler ile hedefe yönelik görüler ve yorumlar elde edilebiliyor.
Bir veri silosu, farklı departman veya sistemlerde izole kalan, birbirleriyle paylaşılmayan veri kümelerini ifade eder. Örneğin pazarlama ekibinin GA4 verileri ile satış ekibinin CRM verileri. Bu veriler birlikte daha değerli hale gelebilirkern birbirleri arasında bağlandı olmaması stratejiler arasında da farklılıklar olmasına sebep olur.
Peki, bunlar pratikte nasıl çalışıyor?
Content Intelligence System
Şu anda bu yazı vesilesi ile görüntülemekte olduğunuz kişisel sitem için oluşturduğum bu sistem dört temel araçtan oluşuyor:
| Araç | İşlev | Teknoloji |
|---|---|---|
| kpy | Semantic search | OpenAI/Qwen embedding + LanceDB |
| klinks | Link analizi | PageRank + graph analysis |
| kperf | Performance | GSC + GA4 (Google Analytics 4) + content graph |
| krag | RAG orchestration | Claude API + tool calling |
Her bir araç, farklı bir perspektiften içerik ekosistemini analiz ediyor ve birlikte kullanıldığında güçlü içgörüler ortaya çıkarıyor.
kpy: Semantic Search
Embedding modelleri ile içerikleri vektör veritabanına indeksleyerek anlamsal arama yapılabilmesini sağlıyor. “eCommerce dataLayer nesne yapıları” diye sorduğumda, başlığında bu terim geçmese bile konuyla ilgili tüm içerikler relevance (alaka düzeyi) skorlarıyla birlikte listeleniyor.
kpy search_content.py "GA4 e-ticaret tracking" --lang tr --limit 5
Bu yaklaşım, keyword matching (anahtar kelime eşleştirme) yerine anlam bazlı arama yapılmasını sağlıyor. “Enhanced ecommerce” araması, “gelişmiş e-ticaret” içeren Türkçe içerikleri de buluyor.
Embedding modeli nedir? Metni, anlamını koruyan sayısal vektörlere dönüştüren yapay zeka modelleridir. Bu vektörler sayesinde “benzer anlam” matematiksel olarak ölçülebilir hale gelir. 2024’ten itibaren transformer tabanlı ve instruction-tuned modeller, çok dilli (1000+ dil) ve multimodal (metin-görsel-ses) yetenekleriyle ön plana çıkıyor.1
Embedding modeli seçimi:
| Model | Avantaj | Dezavantaj |
|---|---|---|
OpenAI (text-embedding-3-small) | Yüksek kalite, kolay entegrasyon | API maliyeti, veri gizliliği |
Qwen (Qwen3-Embedding-4B) | Local, ücretsiz, privacy-first | GPU/RAM gereksinimi, kurulum |
| Sentence Transformers | Hafif, hızlı, çok dilli | Daha düşük doğruluk |
klinks: Link Analizi
İçerikler arası bağlantıları analiz ederek PageRank hesaplıyor, orphan içerikleri tespit ediyor, hub sayfaları belirliyor.
klinks analyze
klinks orphans
klinks top --limit 10
Hangi içeriğin site içi otoritesi yüksek, hangisi izole kalmış gibi soruların cevaplarını tek bakışta görüyorum.
| Metrik | Açıklama |
|---|---|
| PageRank | İçeriğin site içi otoritesi |
| In-degree | Gelen link sayısı |
| Out-degree | Giden link sayısı |
| Orphan | Hiç link almayan içerik |
| Hub | Çok sayıda dışa link veren içerik |
kperf: Performance Analizi
GSC (Google Search Console) ve GA4 verilerini content graph ile birleştirerek fırsat noktalarını ortaya çıkarıyor:
- Yüksek trafik ama düşük dönüşüm
- Yüksek PageRank ama düşük trafik
- Yüksek impressions ama düşük CTR (Click-Through Rate)
- Orphan ama organik trafik alan içerikler
kperf analyze --gsc data/gsc.csv --ga4 data/ga4.csv
kperf insights
kperf correlations
Görselleştirme: D3.js Graph Viewer
Tüm bu veriler D3.js tabanlı interaktif bir graph viewer’da görselleştiriliyor:
- Node boyutu: PageRank değerini temsil eder
- Node rengi: Dil ve içerik türünü gösterir
- Hover: Bağlantılı içerikler görünür
- Filtreler: Orphan’lar veya top performer’lar anında filtrelenebilir
cd .claude/knowledge && python -m http.server 8765
# http://localhost:8765/graph-viewer.html
Vektör Veritabanı: LanceDB
LanceDB’yi tercih etmemin nedenleri:
- Embedded ve serverless: Local-first çalışıyor
- Altyapı gerektirmez: Ekstra kurulum yok
- Privacy-first: Tüm veriler makinede kalıyor
- Hızlı: Arrow tabanlı, columnar storage
import lancedb
db = lancedb.connect("vectors/")
table = db.create_table("content", data)
# Semantic search
results = table.search(query_embedding).limit(5).to_list()
krag: RAG (Retrieval-Augmented Generation) Entegrasyonu
Neden Eklendi?
kpy, klinks ve kperf araçları ayrı ayrı güçlü olsa da, karmaşık sorulara yanıt vermek için manuel olarak birden fazla komutu çalıştırmak ve sonuçları birleştirmek gerekiyordu. Örneğin “orphan içeriklerimden hangilerini önceliklendirmeliyim?” sorusu için:
klinks orphans→ orphan listesikperf analyze→ trafik verileri- Manuel karşılaştırma → insight
Bu süreci otomatikleştirmek için krag eklendi.
Ne Sağlıyor?
| Öncesi | Sonrası |
|---|---|
| 3+ komut çalıştır | Tek doğal dil sorusu |
| Sonuçları manuel birleştir | Claude otomatik analiz eder |
| Teknik bilgi gerekli | Conversational interface |
| Statik çıktılar | Bağlamsal insight’lar |
Nasıl Çalışıyor?
flowchart TB
Q[Doğal dil sorusu] --> API[LLM API]
API --> TS[Tool Selection]
TS --> SS[Semantic Search]
TS --> LA[Link Analysis]
TS --> PA[Performance Analytics]
SS --> DR[Data Retrieval]
LA --> DR
PA --> DR
DR --> AN[LLM analiz + insight]
AN --> R[Yanıt]
Sistem, seçilen LLM API (Application Programming Interface) ile entegre çalışarak doğal dil sorularını yanıtlayabiliyor:
krag "Orphan içeriklerimiz neden önemli?"
krag "Which blog posts have high traffic but low conversion?"
krag "SEO önceliklerim ne olmalı?"
LLM, hangi tool’u kullanacağına otomatik karar veriyor (agentic behavior):
- Kullanıcı doğal dil sorusu gönderir
- LLM, soruyu analiz eder ve uygun tool’ları seçer
- Tool’lar çalışır (
kpy,klinks,kperf), veriler döner - LLM, verileri birleştirir ve bağlamsal insight’larla yanıtlar
Full RAG: Retrieval (çoklu veri kaynağı) + Augmented (LLM ile zenginleştirme) + Generation (doğal dil yanıt). Agentic yapı sayesinde model hangi araçları kullanacağına kendisi karar veriyor.
LLM Seçenekleri
| Seçenek | Avantajlar | Dezavantajlar |
|---|---|---|
| Claude API | Yüksek kalite, güvenilir tool calling | API maliyeti, veri gizliliği |
| OpenAI GPT-4 | Geniş ekosistem, iyi dokümantasyon | API maliyeti |
| Ollama (Local) | Ücretsiz, privacy-first | GPU gereksinimi, daha düşük kalite |
| LM Studio | GUI, kolay kurulum | Sınırlı otomasyon |
Tool calling için önerilen local modeller:2
| Model | Boyut | Notlar |
|---|---|---|
| Qwen 3 | 8B-72B | Çok dilli, MTEB #1 |
| Llama 3.3 | 70B | Meta’nın en güncel modeli |
| Mistral | 7B | Hafif, hızlı |
Daha fazla seçenek için:
- Ollama Model Library -
ollama listile mevcut modelleri görüntüle- HuggingFace Open LLM Leaderboard - Güncel benchmark sonuçları
- Model seçerken “function calling” veya “tool use” desteğine dikkat et
Dual mode yapısı ile cloud ve local seçenekler desteklenebilir:
# Cloud mode (default)
krag "Orphan içeriklerim neden önemli?"
# Local mode (Ollama)
KRAG_LOCAL=true krag "Orphan içeriklerim neden önemli?"
MCP ile Genişletme
Model Context Protocol (MCP), AI kodlama asistanlarına özel tool’lar sunmak için açık bir standart. Bu araçlar MCP destekleyen tüm asistanlara entegre edilebiliyor:
| Asistan | MCP Desteği | Notlar |
|---|---|---|
| Claude Code | Native | Anthropic’in referans implementasyonu |
| Gemini CLI | Evet | Google’ın CLI aracı |
| Cursor | Evet | VS Code tabanlı IDE |
| Windsurf | Evet | Codeium’un IDE’si |
MCP ekosistemi için kaynaklar:
- MCP Servers Directory - Hazır MCP server’lar
- Awesome MCP Servers - Topluluk tarafından derlenen liste
- MCP Specification - Kendi MCP server’ını yazmak için
Örnek MCP server konfigürasyonu:
{
"mcpServers": {
"ceaksan-knowledge": {
"command": "python",
"args": ["mcp_server.py"]
}
}
}
MCP server şu tool’ları sunuyor:
search_content: Semantic içerik aramaget_voice_profile: Yazım stili rehberilist_content: İçerik listesiget_content_stats: İstatistikler
Pratik Kullanım Senaryoları
SEO Specialist için
klinks orphans # İzole içerikleri bul
kperf insights # CTR fırsatlarını gör
Content Strategist için
kpy search "universal analytics" # İlgili içerik bul
klinks analyze # Hub-spoke yapısını incele
Growth Manager için
kperf correlations # PageRank-trafik ilişkisi
kperf top --limit 20 # En iyi performans gösterenler
GA4 MCP Entegrasyonu
Google, Analytics verileriyle çalışmak için resmi bir MCP server sunuyor.3 Bu entegrasyon sayesinde:
- Doğal dil sorguları: “Son 30 günde en çok trafik alan sayfalar?” gibi sorular sorulabilir
- Otomatik rapor oluşturma: AI asistan GA4 verilerini analiz edip içgörüler sunabilir
- Content Intelligence ile birleştirme: PageRank + GA4 metrikleri = güçlü içerik analizi
# Örnek kullanım
krag "Hangi içerikler yüksek trafik alıyor ama düşük etkileşim oranına sahip?"
Kurulum: Google Analytics MCP Docs adresinden resmi dokümantasyona ulaşabilirsiniz.
Sonuç
LLM’ler, MCP protokolleri ve agent mimarileri, içerik analizi ve optimizasyonunu yeni bir seviyeye taşıyor. Semantic search ile “anlam” bazlı keşif, link analizi ile “yapı” bazlı değerlendirme, performance metrikleri ile “etki” bazlı ölçüm bir araya geldiğinde, içerik ekosisteminin bütünsel bir resmini görmek mümkün oluyor.
Bu sistem, istersem tamamen local ortamda privacy-first şekilde, istersem remote olarak ölçeklenebilir hale gelebiliyor.
İleri Okumalar
- LanceDB Documentation
- OpenAI Embeddings Guide
- Model Context Protocol (MCP)
- Semantic SEO 2025 Strategy Guide
- Qwen3 Embedding Models
Footnotes
- MTEB (Massive Text Embedding Benchmark), embedding modellerini karşılaştırmak için kullanılan standart benchmark. Detaylı karşılaştırma için: MTEB Leaderboard ↩
- Ollama tool calling hakkında detaylı bilgi: Ollama Tool Calling Docs ↩
- Google Analytics MCP, GA4 verilerine AI asistanlar üzerinden erişim sağlayan resmi MCP server: Google Analytics MCP ↩