TL;DR
| Platform | 2020 | 2026 |
|---|---|---|
| Excel | Manuel PivotTable | Copilot Agent Mode (doğal dil) |
| Google Sheets | Temel pivot | Connected Sheets + BigQuery (200K satır) |
| Python | pandas pivot_table() | Polars (5-10x hızlı), DuckDB (SQL PIVOT) |
| R | spread/gather | pivot_wider/pivot_longer (tidyr) |
| JavaScript | PivotTable.js | AG Grid, Flexmonster, Arquero |
| AI | Yok | Semantic özetleme, token optimizasyonu |
Bu yazının ilk versiyonu 2020 yılında yayınlanmıştı ve Excel ile Google Sheets üzerinden temel pivot table oluşturma işlemlerini ele almaktaydı. O tarihten bu yana pivot table, “satır ve sütun yer değiştirme” aracı olmaktan çıkıp veri analitiği ekosisteminin merkezindeki bir veri motoruna dönüştü. Özellikle AI agent’ların yaygınlaşmasıyla birlikte pivot table artık son sonuç değil, yapay zekanın veriyi anlamlandırması için kullandığı bir ara katman işlevi görmekte.
Pivot Table Temelleri
Pivot Table (Özet Tablosu), bir veri tablosundaki kayıtları çözümlemek, özetlemek ve raporlamak için kullanılan bir araçtır. Temel işlevi, bir sütunu gruplandırma anahtarı olarak belirleyerek satırları sütunlara dönüştürmek ve toplama fonksiyonları (toplam, ortalama, sayma) uygulamaktır.
Bu süreç ile:
- Geniş veri tablolarını gruplama, filtreleme ve koşullu biçimleme ile özetleyebilir
- Sayısal verilerin toplamlarını, alt toplamlarını kategori ve alt kategori düzeyinde hesaplayabilir
- İşlemleri genişleterek (expand) veya daraltarak (collapse) detay kapsamını düzenleyebilir
- Farklı hesaplama fonksiyonları (sayısal, metin, tarih) kullanarak karşılaştırmalar yapabilirsiniz
Pivot table oluştururken dikkat edilmesi gereken temel kurallar: sütunların başlık (header) içermesi, her sütunun tek bir veri tipine sahip olması ve veri girişlerinde tutarlılık sağlanması (örneğin “E-posta” ifadesinin bir satırda “E-mail” olarak kullanılmaması).
Modern Excel: Power Pivot, DAX ve Copilot
Power Pivot ve Veri Modeli
2020’de pivot table ile çalışırken Excel’in satır sınırı (1.048.576) en büyük kısıtlardan biriydi. Power Pivot’un Veri Modeli (Data Model) bu sınırı ortadan kaldırmakta: xVelocity (VertiPaq) bellek içi sütunsal motor sayesinde tablo başına yaklaşık 2 milyar satır desteklenmekte1. Veriler Excel çalışma sayfasında değil, arkadaki Veri Modeli’nde tutularak pivot ile raporlanmakta.
DAX (Data Analysis Expressions)
Power Pivot ile birlikte gelen DAX, pivot tablo hesaplamalarını standart Excel formüllerinin ötesine taşımakta2:
| DAX Fonksiyonu | Açıklama | Kullanım |
|---|---|---|
CALCULATE | Filtre bağlamını değiştirerek dinamik toplama | Koşullu satış toplamları |
SUMX | Satır bazında iterasyon ve toplam | SUMX(Sales, Sales[Qty] * Sales[Margin]) |
RELATED | İlişkili tablolardan veri çekme | Çoklu tablo pivot |
SAMEPERIODLASTYEAR | Geçen yıl aynı dönem karşılaştırması | YoY analiz |
ALL / ALLEXCEPT | Filtreleri kaldırarak genel toplam | Yüzde hesaplamaları |
Copilot Agent Mode
Aralık 2025’te genel kullanıma açılan Agent Mode, Excel’de pivot table oluşturma sürecini doğal dile taşımakta3:
- “Bölgelere göre çeyreklik satış pivotu yap” gibi komutlarla PivotTable otomatik oluşturulabilmekte
- Planlama, oluşturma ve doğrulama aşamalarında kullanıcı kontrolü sunulmakta
- Arka planda OpenAI GPT 5.2 veya Anthropic Claude Opus 4.5 modelleri kullanılabilmekte
=COPILOT()formülü ile hücre seviyesinde tahmin, özet ve toplama işlemleri çalıştırılabilmekte
Excel’in eski “Analyze Data” (App Skills) özelliği Şubat 2026 sonunda kaldırılmakta; yerini Agent Mode ve Analyst almakta.
Google Sheets: Connected Sheets ve Gemini
Connected Sheets + BigQuery
Google Connected Sheets, BigQuery’nin ölçeğini Sheets arayüzüne taşımakta. Ekim 2025 güncellemesiyle birlikte4:
- Pivot tablo satır kapasitesi 100.000’den 200.000’e yükseltildi
- Pivot hücrelerine çift tıklayarak detaya inme (drill down) özelliği eklendi
- Drive’daki CSV dosyaları doğrudan BigQuery’ye aktarılıp Connected Sheets ile analiz edilebilmekte
Bu sayede milyarlarca satırlık e-ticaret verisi, Sheets arayüzünde pivot tablo olarak analiz edilebilmekte.
Gemini Entegrasyonu
Mayıs ve Ekim 2025 güncellemeleriyle Google Sheets’te Gemini ile5:
- Doğal dil ile pivot tablo oluşturulabilmekte (“Bölgelere göre satış toplamını gösteren bir pivot tablo oluştur”)
- Tek bir komutla çoklu adım yürütülebilmekte (veri temizleme + biçimleme + pivot oluşturma)
- Birden fazla tablo üzerinden çapraz pivot analiz yapılabilmekte
- Seçili aralıklar üzerinde odaklı analiz gerçekleştirilebilmekte
Google Sheets Sınırları
| Sınır | Değer |
|---|---|
| Hücre | 10 milyon |
| Sütun | 18.278 |
| Sekme | 200 |
| Hücre karakter | 50.000 |
Python: pandas, Polars ve DuckDB
pandas pivot_table()
pandas 3.0.0 (Ocak 2026), pivot_table() API’sinde önemli bir davranış değişikliği getirmekte: observed parametresi artık varsayılan olarak True; yalnızca gözlemlenen kategoriler gösterilmekte. Ayrıca Copy-on-Write varsayılan ve tek mod haline gelmiştir6.
import pandas as pd
df = pd.DataFrame({
'Tarih': ['2026-01', '2026-01', '2026-02', '2026-02'],
'Kategori': ['Elektronik', 'Moda', 'Elektronik', 'Moda'],
'Satış': [1200, 450, 1500, 300],
'İade': [1, 2, 0, 5]
})
pivot = df.pivot_table(
index='Kategori',
columns='Tarih',
values='Satış',
aggfunc='sum'
)
Polars: Performans Devrimi
Polars 1.38.1 (Şubat 2026), Rust dilinde yazılmış ve pandas’a alternatif olarak konumlanan bir DataFrame kütüphanesidir. Pivot işlemlerinde veri boyutuna bağlı olarak 1.6 ila 8.6 kat daha hızlı çalışmakta7:
| Veri Boyutu | pandas | Polars | Fark |
|---|---|---|---|
| 10K satır | Temel | ~1.6x hızlı | Küçük fark |
| 100M satır | Temel | ~8.6x hızlı | Belirgin fark |
| 1 GB CSV yükleme | Temel | ~5x hızlı, %87 daha az bellek | Kritik fark |
import polars as pl
df = pl.DataFrame({
'Kategori': ['Elektronik', 'Moda', 'Elektronik', 'Moda'],
'Ay': ['Ocak', 'Ocak', 'Şubat', 'Şubat'],
'Satış': [1200, 450, 1500, 300]
})
pivot = df.pivot(
on='Ay',
index='Kategori',
values='Satış',
aggregate_function='sum'
)
Polars’ın 2025’te tanıtılan streaming motoru, bellek içi motora göre ek 3-7 kat iyileştirme sağlamakta. E-ticaret verilerinin milyonlarca satıra ulaştığı senaryolarda Polars, 2026’nın en büyük best practice’i konumunda.
DuckDB: SQL ile Pivot
DuckDB 1.4.4 (Ocak 2026), birinci sınıf PIVOT/UNPIVOT SQL sözdizimi sunmakta8:
-- Basit pivot
PIVOT satislar ON ay USING sum(tutar);
-- SQL standart sözdizimi
SELECT * FROM satislar
PIVOT (sum(tutar) AS toplam FOR ay IN ('Ocak', 'Şubat', 'Mart'));
DuckDB, pandas DataFrame’leri üzerinde doğrudan SQL çalıştırabilmekte ve büyük veri setlerinde bellek yönetimi konusunda avantaj sağlamakta.
R: tidyverse ve data.table
pivot_wider() ve pivot_longer()
tidyr 1.0.0 (Eylül 2019) ile tanıtılan pivot_wider() ve pivot_longer(), eski spread() ve gather() fonksiyonlarının yerini almıştır9. İsimlendirme daha sezgisel: pivot_longer uzun format, pivot_wider geniş format.
library(tidyr)
# Uzun formatı geniş formata dönüştür (pivot)
df %>%
pivot_wider(
names_from = Ay,
values_from = Satis,
values_fn = sum
)
data.table Alternatifi
data.table 1.18.0 (Aralık 2025), dcast() (geniş) ve melt() (uzun) fonksiyonlarıyla yeniden şekillendirme işlemleri sunmakta. Dahili hızlı radix sıralama ve ikili arama sayesinde tidyr’a göre yaklaşık 5 kat daha hızlı çalışmakta10.
library(data.table)
dcast(dt, Kategori ~ Ay, value.var = "Satis", fun.aggregate = sum)
JavaScript: Tarayıcı Tabanlı Pivot
Mevcut Durum
| Araç | Durum | Kapasite | Lisans |
|---|---|---|---|
| PivotTable.js | Bakımsız (~7 yıldır güncellenmedi) | Küçük veri | MIT |
| WebDataRocks | Aktif | ~1 MB | Ücretsiz |
| Flexmonster | Aktif | ~1 GB, milyon satır | Ticari |
| AG Grid (Enterprise) | Aktif | Sunucu taraflı, sınırsız | Ticari |
| Arquero | Aktif | 1M+ satır (tarayıcıda) | BSD |
Arquero, UW Interactive Data Lab tarafından geliştirilen sütunsal JavaScript veri dönüşüm kütüphanesidir. Tarayıcıda 1 milyondan fazla satırı işleyebilmekte ve pivot/reshape işlemleri sunmakta11.
AG Grid Enterprise, sunucu taraflı satır modelleri ile en kapsamlı pivot özelliklerini sunmakta. React, Angular ve Vue entegrasyonları mevcut.
AI Agent’lar ve Pivot Table
AI agent’ların yaygınlaşmasıyla birlikte pivot table’ın rolü değişmekte: artık sadece insanların okuduğu bir rapor değil, yapay zekanın veriyi sindirebilir parçalara ayırma yöntemi.
Doğal Dil ile Pivot Oluşturma
Excel Copilot Agent Mode ve Google Gemini, doğal dil komutlarıyla pivot table oluşturabilmekte. Claude’un Code Interpreter özelliği (Eylül 2025) ise CSV/TSV dosyalarını yükleyerek Python ile pivot analiz, görselleştirme ve Excel çıktısı üretebilmekte12.
AI-Destekli Pivot Önerisi
Microsoft Research, BERT embedding’lerini kullanarak pivot tablolardaki öznitelik önemini anlayan ve kullanıcılara anlamlı pivot konfigürasyonları öneren bir sistem geliştirmiştir13. Bu yaklaşımda agent, yalnızca sayıları değil sütun isimlerinin anlamını da değerlendirmekte. Örneğin “İndirim dönemlerindeki iade oranlarını pivotla” komutunda, hangi sütunun indirim hangi sütunun iade olduğunu mantıksal olarak eşleştirmekte.
Token Optimizasyonu: Pre-Pivot Stratejisi
AI agent’lara ham veri göndermek yerine önceden pivot edilmiş özetler göndermek, token maliyetini %60-80 oranında düşürmekte14:
import pandas as pd
import json
# Ham veri: 10.000 satır e-ticaret verisi
df = pd.read_csv('satislar.csv')
# Pre-pivot özet: AI agent için
pivot = df.pivot_table(
index='Kategori',
values=['Satış', 'İade'],
aggfunc={'Satış': 'sum', 'İade': 'mean'}
).reset_index()
# Flag ekleme: Agent'ın odaklanması gereken noktalar
pivot['Durum'] = pivot.apply(
lambda x: 'Kritik' if x['İade'] > 3 else 'Stabil', axis=1
)
# JSON formatında agent'a gönder
context = pivot.to_json(orient='records', force_ascii=False)
Bu yaklaşım iki kritik avantaj sağlamakta:
- Token tasarrufu: 10.000 satırlık ham log yerine 10-20 satırlık pivot özet
- Doğruluk artışı: Flag (Durum, Trend) sütunları, agent’ın “nereye bakmalıyım?” sorusuna yanıt vermekte ve hallucination riskini azaltmakta
Tarayıcı Tabanlı Agent’lar
Bir e-ticaret panelinde (Shopify, WooCommerce) gezinen tarayıcı tabanlı AI agent’lar, ekrandaki karmaşık tabloyu anında pivot yapıya dönüştürüp anomali tespiti yapabilmekte: “Satışlar artarken kar düşüyor” gibi uyarılar üretebilmekte.
E-ticaret Pivot Analizi Pratikleri
Yaygın Pivot Kalıpları
| Kalıp | Satır (Index) | Sütun | Değer | Amaç |
|---|---|---|---|---|
| Kategori performansı | Ürün kategorisi | Ay/Çeyrek | Satış toplamı | Mevsimsel trendler |
| Kohort analizi | Edinme ayı | Sonraki aylar | Retention oranı | Müşteri sadakati |
| Kanal x Bölge | Pazarlama kanalı | Coğrafi bölge | Gelir | Kanal etkinliği |
| Ürün matrisi | SKU | Metrikler (gelir, iade, marj) | Değerler | Ürün sağlığı |
| Müşteri LTV | Müşteri segmenti | Dönem | Yaşam boyu değer | Segment karşılaştırması |
Modern Veri Yığınında Pivot
Modern veri yığını mimarisinde (dbt, Looker, BigQuery) pivot işlemi genellikle dönüşüm katmanında gerçekleşmekte15:
- Veri aktarımı: Fivetran/Stitch ile ham e-ticaret verisi ambarına
- Dönüşüm (dbt):
dbt_utils.pivot()makrosu ile SQL pivot işlemleri, hardcode olmadan dinamik sütun oluşturma - BI katmanı: Looker/Tableau, dbt tarafından dönüştürülmüş verileri tüketmekte
- Reverse ETL: Census/Hightouch ile pivot edilmiş sonuçlar CRM ve pazarlama araçlarına geri aktarılmakta
ShopifyQL ve Pivot
Shopify’ın Haziran 2022’de tanıttığı ShopifyQL, e-ticaret verisi üzerinde sorgu yazmayı standart SQL’e göre belirgin şekilde sadeleştirmekte16. COMPARE TO previous_year ile dönem karşılaştırması (SQL’de self-join gerektiren işlem), WITH TOTALS ve GROUP_TOTALS ile satır/sütun toplamları, WITH PERCENT_CHANGE ile yüzde değişim hesaplaması tek satırda yapılabilmekte:
FROM sales
SHOW net_sales
GROUP BY product_type
SINCE -12m
COMPARE TO previous_year
WITH TOTALS, PERCENT_CHANGE
VISUALIZE
Ancak ShopifyQL, gerçek pivot/crosstab (satırları sütunlara dönüştürme) işlemini henüz desteklememekte. Subquery ve CTE desteği de bulunmamakta. Aralık 2025’te tanıtılan Sidekick AI entegrasyonu ile doğal dil üzerinden ShopifyQL sorguları üretilebilmekte ve Sidekick Pulse ile proaktif anomali tespiti yapılabilmekte17.
Karmaşık pivot senaryolarında önerilen yaklaşım: ShopifyQL ile GROUP BY özeti alıp, Fivetran veya Airbyte ile BigQuery’ye aktarmak ve orada DuckDB PIVOT veya dbt_utils.pivot() ile gerçek pivot işlemi uygulamaktır. Google Connected Sheets üzerinden BigQuery verisini doğrudan Sheets pivot table olarak analiz etmek de etkili bir alternatif sunmakta.
Web Scraping ve Rekabet İstihbaratı
E-ticaret alanında rakip fiyat takibi ve pazar analizi için web scraping ile toplanan verileri pivot tablolarla analiz etmek yaygın bir pratiktir.
Araç Yelpazesi (2025-2026)
| Araç | Tip | Kullanım | Durum |
|---|---|---|---|
| Scrapy 2.12+ | Framework | Büyük ölçekli yapısal crawling | Aktif |
| Playwright 1.49+ | Tarayıcı otomasyonu | JavaScript ağırlıklı siteler, SPA | Aktif |
| ScrapeGraphAI | AI destekli | Semantik çıkartma, düşük bakım | Yeni |
| Crawl4AI | Açık kaynak | LLM uyumlu çıktı, ücretsiz | Yeni |
Anti-Bot Zorlukları
2025-2026 itibarıyla anti-bot korumalar belirgin şekilde sertleşti. Cloudflare Turnstile, TLS/HTTP2 parmak izi ve JavaScript challenge kullanmakta; DataDome ise ML tabanlı gerçek zamanlı bot tespiti yapmakta. Puppeteer-stealth Şubat 2025’te sona erdi; aktif alternatifler Nodriver, SeleniumBase UC Mode ve Camoufox olarak öne çıkmakta18.
ScrapeGraphAI’nin yapay zeka yaklaşımı, CSS selektörlere bağlı scraperlardan %70 daha az bakım gerektirmekte. LLM’ler sayfa semantiğini HTML yapısı değişikliklerinden bağımsız olarak anlayabilmekte.
Scraping’den Pivot’a Pipeline
from playwright.async_api import async_playwright
import duckdb
# Veriyi DuckDB'de depola
con = duckdb.connect("rakip_fiyatlari.duckdb")
# Rakip fiyat karşılaştırması: PIVOT
con.execute("""
PIVOT price_history
ON competitor
USING AVG(price) AS ort_fiyat, MIN(price) AS min_fiyat
GROUP BY product_sku
ORDER BY product_sku
""")
Hukuki açıdan: robots.txt’e uyulması, istekler arası minimum 1-2 saniye beklenmesi ve ToS kontrolü önerilmektedir. Fiyat verisi genel olarak kişisel veri kapsamında değerlendirmemekle birlikte, KVKK kişisel veri içeren scraping işlemlerinde geçerlidir.
WooCommerce Veri Analitiği
WooCommerce REST API v3, sipariş, ürün, müşteri ve kupon verilerini programatik olarak çıkarmayı mümkün kılmakta. Shopify’ın dakikada 40 API isteği sınırının aksine, WooCommerce doğrudan veritabanı erişimi ile sınırsız çalışmakta19. Sipariş filtreleme işlemleri için WooCommerce REST API - Siparişlerin Filtrelenmesi yazısına da göz atabilirsiniz.
API’den Pivot’a
from woocommerce import API
import pandas as pd
wcapi = API(
url="https://magaza.com",
consumer_key="ck_xxx",
consumer_secret="cs_xxx",
version="wc/v3"
)
# Tüm siparişleri sayfalama ile çek
all_orders = []
page = 1
while True:
response = wcapi.get("orders", params={"per_page": 100, "page": page})
orders = response.json()
if not orders:
break
all_orders.extend(orders)
page += 1
df = pd.json_normalize(all_orders, sep='_')
RFM Analizi
import numpy as np
snapshot = df["order_date"].max() + pd.Timedelta(days=1)
rfm = df.groupby("customer_id").agg(
recency=("order_date", lambda x: (snapshot - x.max()).days),
frequency=("order_id", "nunique"),
monetary=("line_total", "sum")
).reset_index()
# 1-5 arası skorlama
for col in ["recency", "frequency", "monetary"]:
labels = range(5, 0, -1) if col == "recency" else range(1, 6)
rfm[f"{col}_score"] = pd.qcut(
rfm[col], q=5, labels=labels, duplicates="drop"
).astype(int)
# Segment pivot
rfm_pivot = rfm.pivot_table(
values="monetary",
index="segment",
aggfunc=["count", "mean", "sum"]
).round(2)
WooCommerce MCP Entegrasyonu
WooCommerce 10.3 (2025), ilk resmi MCP (Model Context Protocol) entegrasyonunu tanıtmıştır. Bu entegrasyon, AI agent’ların ürün arama, ekleme ve güncelleme işlemlerini doğrudan yapmasını sağlamakta.
BigQuery Entegrasyon Yolları
| Araç | Yöntem | Maliyet |
|---|---|---|
| Airbyte | Açık kaynak ETL | Ücretsiz (self-hosted) |
| n8n | İş akışı otomasyonu | Ücretsiz (self-hosted) |
| Coupler.io | No-code zamanlayıcı | $49/ay’dan |
| Doğrudan DB | Server-side tracking -> BigQuery | Altyapı maliyeti |
BigQuery ile E-ticaret Pivot İşlemleri
BigQuery’nin yerel PIVOT operatörü, GA4 e-ticaret verisi üzerinde güçlü analiz imkanı sunmakta20. Veri ambarı kavramına aşinaysanız, BigQuery bu mimarinin bulut-native uygulaması olarak düşünülebilir.
GA4 Verisinde PIVOT
SELECT *
FROM (
SELECT
items.item_category AS kategori,
event_name,
items.price * items.quantity AS gelir
FROM `project.analytics_XXXXXX.events_*`,
UNNEST(items) AS items
WHERE _TABLE_SUFFIX BETWEEN '20250101' AND '20250131'
AND event_name IN ('purchase', 'add_to_cart', 'view_item')
)
PIVOT (
SUM(gelir) AS toplam
FOR event_name IN ('purchase', 'add_to_cart', 'view_item')
);
BigQuery ML
BigQuery ML, e-ticaret tahmini için doğrudan SQL ile model oluşturmayı mümkün kılmakta:
- ARIMA_PLUS: Günlük gelir tahminleri, Türk tatil takvimi desteği (
holiday_region = 'TR'), aynı anda 100 milyon zaman serisi - K-means: RFM skorlarından müşteri segmentasyonu,
standardize_features = TRUEile otomatik ölçekleme
Maliyet Optimizasyonu
| Teknik | Tasarruf | Uygulama |
|---|---|---|
| Partitioning | %90’a kadar tarama azaltımı | PARTITION BY DATE(event_timestamp) |
| Clustering | %30-60 ek azaltım | CLUSTER BY event_name, user_id |
| Materialized Views | Otomatik yenilenen ön-toplamları | CREATE MATERIALIZED VIEW |
| Sütun seçimi | Değişken | SELECT * kullanılmamalı |
BigQuery on-demand fiyatlandırması: ayda ilk 1 TB ücretsiz, sonrası $6.25/TB. Tipik bir e-ticaret mağazasının (500K sipariş/yıl) aylık 500 GB’lik sorgu hacmi, ücretsiz kotanın içinde kalmakta.
BI Engine, sık erişilen verileri otomatik önbellekleyerek saniyenin altında sorgu yanıtı ve 4-10 kat performans iyileştirmesi sağlamakta.
Local LLM ile Gizlilik Odaklı Analiz
Müşteri verilerini (isim, e-posta, adres, satın alma geçmişi) bulut LLM API’lerine göndermek, KVKK kapsamında sınır ötesi veri aktarımı oluşturmakta. Local LLM’ler bu sorunu tasarım gereği çözmekte21.
Ollama ile Kurulum
ollama pull qwen2.5-coder:14b # Kod üretimi + veri analizi
ollama pull mistral-nemo:12b # Çok dilli, genel analiz
ollama pull phi4:14b # Güçlü akıl yürütme
VRAM Gereksinimleri (Q4_K_M Niceleme)
| Model | Parametre | VRAM | En İyi Kullanım |
|---|---|---|---|
| Qwen2.5-Coder 7B | 7B | 6-7 GB | Kod üretimi, SQL yazımı |
| Qwen2.5-Coder 14B | 14B | 10-12 GB | Karmaşık analitik kod |
| Mistral Nemo 12B | 12B | 8-10 GB | Çok dilli, genel analiz |
| Phi-4 14B | 14B | 10-12 GB | Akıl yürütme, matematik |
| DeepSeek-R1 14B | 14B | 10-12 GB | Zincir düşünce |
Donanım kademeleri: 8 GB VRAM (RTX 4060) ile 7B modeller, 12-16 GB (RTX 4070 Ti, M2 Pro/Max) ile 12-14B modeller, 24 GB (RTX 4090, M3 Max) ile 32B modeller çalıştırılabilmekte.
Pivot Özet ile Local LLM
import ollama
import json
pivot_ozet = """
Aylık Gelir (Kategori):
| Kategori | Oca | Sub | Mar |
|-------------|--------|--------|--------|
| Elektronik | 45.200 | 38.100 | 52.300 |
| Giyim | 22.100 | 19.800 | 28.500 |
RFM Segmentleri:
| Segment | Sayı | Ort Harcama | Ort Yakınlık |
|-------------|------|-------------|--------------|
| Şampiyonlar | 342 | 1.250 TL | 8 gün |
| Risk Altında| 891 | 480 TL | 67 gün |
"""
response = ollama.chat(
model="qwen2.5-coder:14b",
messages=[{
"role": "user",
"content": f"Bu e-ticaret pivot verisini analiz et. "
f"JSON formatında döndürün.\n{pivot_ozet}"
}],
format="json"
)
KVKK Uyumluluğu
KVKK (Kişisel Verilerin Korunması Kanunu), 2025 güncellemesiyle idari para cezalarını 68.083 TL ile 13,6 milyon TL arasına yükseltmiştir (%43,93 artış). Aralık 2025’te yayımlanan “Üretici Yapay Zeka ve Kişisel Verilerin Korunması” rehberi, LLM geliştiricilerine “tasarımdan itibaren gizlilik” (privacy by design) ilkesini zorunlu kılmakta22.
Local LLM kullanıldığında: embedding üretimi, vektör arama ve LLM çıkarımı tamamen yerel ortamda gerçekleşmekte. Hiçbir veri dışarıya çıkmamakta.
Hibrit Mimari
Katman 1: Veri Çıkarma (Yerel)
WooCommerce API -> Python -> Polars -> DuckDB
Maliyet: $0 (işlem gücü)
Katman 2: Pivot + Özetleme (Local LLM)
Ham veri -> pivot tablo -> Ollama (Qwen2.5-Coder 14B)
Maliyet: ~$0 (elektrik, ~$0.02/saat GPU)
KVKK uyumlu: tüm PII yerel ortamda
Katman 3: Stratejik İçgörüler (Bulut LLM, opsiyonel)
Ön-pivot, anonimleştirilmiş özetler -> Claude / GPT-4o
Maliyet: sorgu başına ~$0.02-0.04
Bu yaklaşım, %85-95 maliyet düşüşü sağlarken KVKK uyumluluğunu korumakta.
LLM’lerin Tablo Verileriyle Sınırları
AI agent’lar pivot table ile güçlendikçe, bu modellerin tablo verilerindeki sınırlarını anlamak kritik önem taşımakta.
Yapısal Uyumsuzluk
Tablo verisi iki boyutlu, ilişkisel bir yapıya sahipken LLM’ler tek boyutlu, otoregresif bir hedefle eğitilmektedir. Bir tablo metne serileştirildiğinde satır ve sütun sınırları bulanıklaşır, model satır/sütun karışmalarına duyarlı hale gelir ve büyük veri setlerinde bağlam penceresi sınırlarına takılır23.
Sayısal Hassasiyet Hataları
Sayılar tokenizasyon sırasında karakter dizileri olarak işlenmekte, büyüklük ve sayısal sıra bilgisi kaybolmaktadır. Altı büyük LLM üzerinde yapılan araştırmalarda olgusal halüsinasyon oranlarının %59 ile %82 arasında değiştiği, sayısal geri çağırım güvenilirliğinin ise sıfıra yakın olduğu saptanmıştır24.
Tablo Yapısal Anlama Benchmark’ları
| Benchmark | Yıl | Kapsam | Bulgu |
|---|---|---|---|
| SUC (Microsoft) | WSDM 2024 | 7 temel tablo görevi | En iyi doğruluk: %65,43 |
| TableBench | AAAI 2025 | 886 örnek, 18 alt kategori | GPT-4 bile insandan belirgin geride |
| RealHiTBench | ACL 2025 | 708 hiyerarşik tablo, 3.752 QA | Hiyerarşik başlıklar modelleri zorladı |
| MMQA | ICLR 2025 | Çoklu tablo, çok adımlı akıl yürütme | Tüm modeller insan performansından geride |
| MMTU | 2025 | 30.000+ soru, 25 görev | Akıl yürüten modeller +10 puan avantajda |
| TReB | 2025 | 26 alt görev, 3 çıkarım modu | ICoT (araya giren zincir düşünce) en iyi |
Tablo transpozisyon doğruluğu yaklaşık %50 (rastgele tahmine yakın), başlık tanıma ise %94-97 doğrulukta. Bu, modellerin tablo içeriğini anlayabildiği ancak yapısal dönüştürmede başarısız olduğu anlamına gelmektedir25.
Serileştirme Formatı Karşılaştırması
11 farklı format üzerinde yapılan testlere göre26:
| Format | Doğruluk | Token Kullanımı |
|---|---|---|
| Markdown KV | %60,7 | 2,7x (bazal) |
| XML | %56,0 | 2,3x |
| YAML | %54,7 | 1,9x |
| Doğal dil | %49,6 | 3,0x |
| CSV | %44,3 | 1,0x (en düşük) |
Markdown KV en yüksek doğruluğu sağlamakta, ancak CSV’ye göre 2,7 kat daha fazla token tüketmektedir. Token bütçesi kısıtlı olduğunda CSV, doğruluk öncelikli olduğunda Markdown KV önerilmektedir.
Çözüm Stratejileri
- Kod üretimi yaklaşımı: LLM’e doğrudan veri analiz ettirmek yerine pandas/SQL kodu yazdırmak. Hesaplama işini deterministik araca bırakır
- Şema + örnek satırlar: Tablonun tamamını değil, sütun isimleri, veri tipleri ve ilk 5 satırı göndermek
- ICoT (Araya Giren Zincir Düşünce): Metin akıl yürütme ve kod yürütmeyi dönüşümlü olarak kullanmak. TReB benchmark’ında en iyi sonucu vermekte
- Code Interpreter: Claude ve GPT’nin kod yürütme araçları, sayısal halüsinasyonu tamamen ortadan kaldırmakta
- SpreadsheetLLM (Microsoft, EMNLP 2024): Token kullanımında %96 azaltım ve tablo tespitinde %25,6 iyileştirme sağlayan sıkıştırma yaklaşımı27
Maliyet ve Token Optimizasyonu
Ham Veri ve Pivot Özet Karşılaştırması
| Yaklaşım | Satır | Token (Tahmini) | Maliyet (GPT-4o) |
|---|---|---|---|
| Ham sipariş verisi (10K) | 10.000 | ~250.000 | ~$0,625 |
| Kategori+Ay ön-gruplama | ~200 | ~10.000 | ~$0,025 |
| Yalnızca özet istatistikler | ~20 | ~2.000 | ~$0,005 |
Ön-pivot ile %95-99 token tasarrufu mümkündür. CSV formatı JSON’a göre %40-50 daha az token tüketmektedir.
API Fiyatlandırması (Şubat 2026)
| Model | Giriş/1M Token | Çıkış/1M Token | Toplu İşlem |
|---|---|---|---|
| GPT-4o | $2,50 | $10,00 | %50 indirim |
| GPT-4o mini | $0,15 | $0,60 | %50 indirim |
| Claude Sonnet 4.5 | $3,00 | $15,00 | %50 indirim |
| Claude Haiku 4.5 | $1,00 | $5,00 | %50 indirim |
| Gemini 2.0 Flash | $0,10 | $0,40 | - |
| Local (Ollama) | ~$0 | ~$0 | - |
Anthropic, prompt caching ile tekrarlayan sorgularda giriş token maliyetini %90 düşüren bir mekanizma sunmakta. OpenAI Batch API ise 24 saat içinde sonuç ileterek %50 indirim sağlamakta.
Karar Matrisi
| Durum | Önerilen Yaklaşım |
|---|---|
| Veri PII içeriyor | Yalnızca local LLM (KVKK gereksinimi) |
| Veri < 100K satır, basit pivot | pandas/Polars, LLM gerekmiyor |
| Veri > 1M satır, karmaşık pivot | BigQuery ($6,25/TB) veya DuckDB (ücretsiz) |
| Pivottan doğal dil içgörü | Ön-pivot yerel, özeti bulut LLM’e gönder |
| Toplu işlem (günlük raporlar) | Batch API (%50 indirim), gece işleme |
Pratik Rehber: Hangi Durumda Hangi Araç?
| Senaryo | Önerilen Araç | Neden |
|---|---|---|
| Hızlı keşif, küçük veri | Excel / Google Sheets | Sürükle-bırak, görsel |
| Doğal dil ile pivot | Excel Copilot / Gemini | ”Bölgelere göre satış pivotu” |
| BigQuery üzerinde analiz | Google Connected Sheets | Milyarlarca satır, Sheets arayüzü |
| Programatik analiz (orta veri) | pandas pivot_table() | Yaygın, iyi belgelenmiş |
| Büyük veri (milyon+ satır) | Polars | 5-10x hızlı, düşük bellek |
| SQL tabanlı pivot | DuckDB PIVOT | Doğrudan SQL sözdizimi |
| İstatistiksel analiz | R tidyverse / data.table | pivot_wider, ggplot2 |
| Tarayıcıda pivot | AG Grid / Flexmonster | Büyük veri, kurumsal |
| AI agent hazırlık | pandas/Polars + JSON | Pre-pivot, flag ekleme |
| Veri mühendisliği | dbt_utils.pivot() | Tekrarlanabilir, versiyon kontrollü |
| Rakip fiyat takibi | Scrapy/Playwright + DuckDB | Scraping -> pivot pipeline |
| WooCommerce analizi | wc-api-python + Polars | REST API, sınırsız erişim |
| BigQuery pivot | PIVOT operatörü + BI Engine | GA4, milyarlarca satır |
| Gizlilik odaklı analiz | Ollama + Qwen2.5-Coder | KVKK uyumlu, ücretsiz |
Sonuç
Pivot table, veri analitiğinin temel araçlarından biri olarak konumunu korumakta. Ancak 2026 itibarıyla rolü önemli ölçüde evrildi: artık sadece insanların okuduğu bir rapor tablosu değil, AI agent’ların veriyi sindirebilir parçalara ayırdığı bir ara katman. Excel Copilot ve Google Gemini ile doğal dil üzerinden pivot oluşturulabiliyor, Polars ile milyonlarca satır saniyeler içinde pivotlanabiliyor ve pre-pivot özetler sayesinde AI agent’ların token maliyeti %60-80 oranında düşürülebiliyor.
E-ticaret analitiğinde pivot table, kohort analizi, kategori performansı ve müşteri segmentasyonu gibi kritik iş sorularına yanıt vermenin en doğrudan yoludur. Modern veri yığınında ise pivot işlemi, dbt dönüşüm katmanında bir kez tanımlanıp tüm alt akış tüketicileri tarafından kullanılmakta.
Ancak LLM’lerin tablo verileriyle çalışırken yapısal sınırlamaları bulunmakta: transpozisyon doğruluğu %50, sayısal halüsinasyon oranı %59-82. Bu nedenle hesaplama işini LLM’e bırakmak yerine kod ürettirmek, deterministik araçları (pandas, DuckDB, BigQuery) hesaplama için kullanmak ve LLM’i yalnızca içerik üretimi ve doğal dil içgörüleri için konumlandırmak en etkili strateji olmaya devam etmekte. Local LLM’ler ise KVKK uyumluluğu ve sıfır marjinal maliyet avantajıyla e-ticaret veri analizinde giderek daha güçlü bir alternatif sunmakta.
Pivot table kullanımı farklı platformlarda da detaylı olarak ele alınmakta: Looker Studio Pivot Table, Google Analytics Pivot Tablo ve Facebook Analytics Pivot Tablo.
Footnotes
- Data Model specification and limits - Microsoft Support ↩
- DAX function reference - Microsoft Learn ↩
- Agent Mode in Excel - Microsoft Tech Community ↩
- Powerful pivot tables in Connected Sheets - Google Workspace Updates ↩
- Gemini in Google Sheets - Google Workspace Updates ↩
- pandas 3.0.0 What’s New ↩
- Polars PDS-H Benchmark ↩
- DuckDB PIVOT Statement ↩
- tidyr Pivoting Vignette ↩
- data.table CRAN ↩
- Arquero - Columnar JavaScript Data ↩
- Claude Code Interpreter ↩
- Pivot Table Recommendation with Semantic Embeddings ↩
- A Guide to Token-Efficient Data Prep for LLM Workloads - The New Stack ↩
- dbt_utils pivot macro ↩
- ShopifyQL - Commerce Data Querying Language ↩
- Shopify Editions Winter ‘26 ↩
- Web Scraping Trends for 2025 and 2026 ↩
- WooCommerce REST API Documentation ↩
- How to Create Pivot Table with GA4 Data in BigQuery ↩
- Run LLMs Locally with Ollama: Privacy-First AI 2025 ↩
- KVKK 2025 Updates: A Compliance Guide for Companies ↩
- Why LLMs Struggle with Your Spreadsheet Data - Tryolabs ↩
- Guide to Hallucinations in Large Language Models - Lakera ↩
- Table Meets LLM: Can Large Language Models Understand Structured Table Data? - WSDM 2024 ↩
- Which Table Format Do LLMs Understand Best? ↩
- SpreadsheetLLM - Microsoft Research, EMNLP 2024 ↩