Pivot Table, Veri Analitiği ve AI Entegrasyonu

Pivot table temellerinden Excel Copilot ve Google Gemini entegrasyonuna, Python Pandas/Polars performansından BigQuery GA4 pivot işlemlerine, WooCommerce RFM analizinden local LLM ile KVKK uyumlu veri analizine, LLM sınırlamalarından token optimizasyonuna uzanan kapsamlı bir rehber.

Ceyhun Enki Aksan
Ceyhun Enki Aksan Girişimci, Maker

TL;DR

Platform20202026
ExcelManuel PivotTableCopilot Agent Mode (doğal dil)
Google SheetsTemel pivotConnected Sheets + BigQuery (200K satır)
Pythonpandas pivot_table()Polars (5-10x hızlı), DuckDB (SQL PIVOT)
Rspread/gatherpivot_wider/pivot_longer (tidyr)
JavaScriptPivotTable.jsAG Grid, Flexmonster, Arquero
AIYokSemantic özetleme, token optimizasyonu

Bu yazının ilk versiyonu 2020 yılında yayınlanmıştı ve Excel ile Google Sheets üzerinden temel pivot table oluşturma işlemlerini ele almaktaydı. O tarihten bu yana pivot table, “satır ve sütun yer değiştirme” aracı olmaktan çıkıp veri analitiği ekosisteminin merkezindeki bir veri motoruna dönüştü. Özellikle AI agent’ların yaygınlaşmasıyla birlikte pivot table artık son sonuç değil, yapay zekanın veriyi anlamlandırması için kullandığı bir ara katman işlevi görmekte.

Pivot Table Temelleri

Pivot Table (Özet Tablosu), bir veri tablosundaki kayıtları çözümlemek, özetlemek ve raporlamak için kullanılan bir araçtır. Temel işlevi, bir sütunu gruplandırma anahtarı olarak belirleyerek satırları sütunlara dönüştürmek ve toplama fonksiyonları (toplam, ortalama, sayma) uygulamaktır.

Bu süreç ile:

  • Geniş veri tablolarını gruplama, filtreleme ve koşullu biçimleme ile özetleyebilir
  • Sayısal verilerin toplamlarını, alt toplamlarını kategori ve alt kategori düzeyinde hesaplayabilir
  • İşlemleri genişleterek (expand) veya daraltarak (collapse) detay kapsamını düzenleyebilir
  • Farklı hesaplama fonksiyonları (sayısal, metin, tarih) kullanarak karşılaştırmalar yapabilirsiniz

Pivot table oluştururken dikkat edilmesi gereken temel kurallar: sütunların başlık (header) içermesi, her sütunun tek bir veri tipine sahip olması ve veri girişlerinde tutarlılık sağlanması (örneğin “E-posta” ifadesinin bir satırda “E-mail” olarak kullanılmaması).


Modern Excel: Power Pivot, DAX ve Copilot

Power Pivot ve Veri Modeli

2020’de pivot table ile çalışırken Excel’in satır sınırı (1.048.576) en büyük kısıtlardan biriydi. Power Pivot’un Veri Modeli (Data Model) bu sınırı ortadan kaldırmakta: xVelocity (VertiPaq) bellek içi sütunsal motor sayesinde tablo başına yaklaşık 2 milyar satır desteklenmekte1. Veriler Excel çalışma sayfasında değil, arkadaki Veri Modeli’nde tutularak pivot ile raporlanmakta.

DAX (Data Analysis Expressions)

Power Pivot ile birlikte gelen DAX, pivot tablo hesaplamalarını standart Excel formüllerinin ötesine taşımakta2:

DAX FonksiyonuAçıklamaKullanım
CALCULATEFiltre bağlamını değiştirerek dinamik toplamaKoşullu satış toplamları
SUMXSatır bazında iterasyon ve toplamSUMX(Sales, Sales[Qty] * Sales[Margin])
RELATEDİlişkili tablolardan veri çekmeÇoklu tablo pivot
SAMEPERIODLASTYEARGeçen yıl aynı dönem karşılaştırmasıYoY analiz
ALL / ALLEXCEPTFiltreleri kaldırarak genel toplamYüzde hesaplamaları

Copilot Agent Mode

Aralık 2025’te genel kullanıma açılan Agent Mode, Excel’de pivot table oluşturma sürecini doğal dile taşımakta3:

  • “Bölgelere göre çeyreklik satış pivotu yap” gibi komutlarla PivotTable otomatik oluşturulabilmekte
  • Planlama, oluşturma ve doğrulama aşamalarında kullanıcı kontrolü sunulmakta
  • Arka planda OpenAI GPT 5.2 veya Anthropic Claude Opus 4.5 modelleri kullanılabilmekte
  • =COPILOT() formülü ile hücre seviyesinde tahmin, özet ve toplama işlemleri çalıştırılabilmekte

Excel’in eski “Analyze Data” (App Skills) özelliği Şubat 2026 sonunda kaldırılmakta; yerini Agent Mode ve Analyst almakta.


Google Sheets: Connected Sheets ve Gemini

Connected Sheets + BigQuery

Google Connected Sheets, BigQuery’nin ölçeğini Sheets arayüzüne taşımakta. Ekim 2025 güncellemesiyle birlikte4:

  • Pivot tablo satır kapasitesi 100.000’den 200.000’e yükseltildi
  • Pivot hücrelerine çift tıklayarak detaya inme (drill down) özelliği eklendi
  • Drive’daki CSV dosyaları doğrudan BigQuery’ye aktarılıp Connected Sheets ile analiz edilebilmekte

Bu sayede milyarlarca satırlık e-ticaret verisi, Sheets arayüzünde pivot tablo olarak analiz edilebilmekte.

Gemini Entegrasyonu

Mayıs ve Ekim 2025 güncellemeleriyle Google Sheets’te Gemini ile5:

  • Doğal dil ile pivot tablo oluşturulabilmekte (“Bölgelere göre satış toplamını gösteren bir pivot tablo oluştur”)
  • Tek bir komutla çoklu adım yürütülebilmekte (veri temizleme + biçimleme + pivot oluşturma)
  • Birden fazla tablo üzerinden çapraz pivot analiz yapılabilmekte
  • Seçili aralıklar üzerinde odaklı analiz gerçekleştirilebilmekte

Google Sheets Sınırları

SınırDeğer
Hücre10 milyon
Sütun18.278
Sekme200
Hücre karakter50.000

Python: pandas, Polars ve DuckDB

pandas pivot_table()

pandas 3.0.0 (Ocak 2026), pivot_table() API’sinde önemli bir davranış değişikliği getirmekte: observed parametresi artık varsayılan olarak True; yalnızca gözlemlenen kategoriler gösterilmekte. Ayrıca Copy-on-Write varsayılan ve tek mod haline gelmiştir6.

import pandas as pd

df = pd.DataFrame({
    'Tarih': ['2026-01', '2026-01', '2026-02', '2026-02'],
    'Kategori': ['Elektronik', 'Moda', 'Elektronik', 'Moda'],
    'Satış': [1200, 450, 1500, 300],
    'İade': [1, 2, 0, 5]
})

pivot = df.pivot_table(
    index='Kategori',
    columns='Tarih',
    values='Satış',
    aggfunc='sum'
)

Polars: Performans Devrimi

Polars 1.38.1 (Şubat 2026), Rust dilinde yazılmış ve pandas’a alternatif olarak konumlanan bir DataFrame kütüphanesidir. Pivot işlemlerinde veri boyutuna bağlı olarak 1.6 ila 8.6 kat daha hızlı çalışmakta7:

Veri BoyutupandasPolarsFark
10K satırTemel~1.6x hızlıKüçük fark
100M satırTemel~8.6x hızlıBelirgin fark
1 GB CSV yüklemeTemel~5x hızlı, %87 daha az bellekKritik fark
import polars as pl

df = pl.DataFrame({
    'Kategori': ['Elektronik', 'Moda', 'Elektronik', 'Moda'],
    'Ay': ['Ocak', 'Ocak', 'Şubat', 'Şubat'],
    'Satış': [1200, 450, 1500, 300]
})

pivot = df.pivot(
    on='Ay',
    index='Kategori',
    values='Satış',
    aggregate_function='sum'
)

Polars’ın 2025’te tanıtılan streaming motoru, bellek içi motora göre ek 3-7 kat iyileştirme sağlamakta. E-ticaret verilerinin milyonlarca satıra ulaştığı senaryolarda Polars, 2026’nın en büyük best practice’i konumunda.

DuckDB: SQL ile Pivot

DuckDB 1.4.4 (Ocak 2026), birinci sınıf PIVOT/UNPIVOT SQL sözdizimi sunmakta8:

-- Basit pivot
PIVOT satislar ON ay USING sum(tutar);

-- SQL standart sözdizimi
SELECT * FROM satislar
PIVOT (sum(tutar) AS toplam FOR ay IN ('Ocak', 'Şubat', 'Mart'));

DuckDB, pandas DataFrame’leri üzerinde doğrudan SQL çalıştırabilmekte ve büyük veri setlerinde bellek yönetimi konusunda avantaj sağlamakta.


R: tidyverse ve data.table

pivot_wider() ve pivot_longer()

tidyr 1.0.0 (Eylül 2019) ile tanıtılan pivot_wider() ve pivot_longer(), eski spread() ve gather() fonksiyonlarının yerini almıştır9. İsimlendirme daha sezgisel: pivot_longer uzun format, pivot_wider geniş format.

library(tidyr)

# Uzun formatı geniş formata dönüştür (pivot)
df %>%
  pivot_wider(
    names_from = Ay,
    values_from = Satis,
    values_fn = sum
  )

data.table Alternatifi

data.table 1.18.0 (Aralık 2025), dcast() (geniş) ve melt() (uzun) fonksiyonlarıyla yeniden şekillendirme işlemleri sunmakta. Dahili hızlı radix sıralama ve ikili arama sayesinde tidyr’a göre yaklaşık 5 kat daha hızlı çalışmakta10.

library(data.table)

dcast(dt, Kategori ~ Ay, value.var = "Satis", fun.aggregate = sum)

JavaScript: Tarayıcı Tabanlı Pivot

Mevcut Durum

AraçDurumKapasiteLisans
PivotTable.jsBakımsız (~7 yıldır güncellenmedi)Küçük veriMIT
WebDataRocksAktif~1 MBÜcretsiz
FlexmonsterAktif~1 GB, milyon satırTicari
AG Grid (Enterprise)AktifSunucu taraflı, sınırsızTicari
ArqueroAktif1M+ satır (tarayıcıda)BSD

Arquero, UW Interactive Data Lab tarafından geliştirilen sütunsal JavaScript veri dönüşüm kütüphanesidir. Tarayıcıda 1 milyondan fazla satırı işleyebilmekte ve pivot/reshape işlemleri sunmakta11.

AG Grid Enterprise, sunucu taraflı satır modelleri ile en kapsamlı pivot özelliklerini sunmakta. React, Angular ve Vue entegrasyonları mevcut.


AI Agent’lar ve Pivot Table

AI agent’ların yaygınlaşmasıyla birlikte pivot table’ın rolü değişmekte: artık sadece insanların okuduğu bir rapor değil, yapay zekanın veriyi sindirebilir parçalara ayırma yöntemi.

Doğal Dil ile Pivot Oluşturma

Excel Copilot Agent Mode ve Google Gemini, doğal dil komutlarıyla pivot table oluşturabilmekte. Claude’un Code Interpreter özelliği (Eylül 2025) ise CSV/TSV dosyalarını yükleyerek Python ile pivot analiz, görselleştirme ve Excel çıktısı üretebilmekte12.

AI-Destekli Pivot Önerisi

Microsoft Research, BERT embedding’lerini kullanarak pivot tablolardaki öznitelik önemini anlayan ve kullanıcılara anlamlı pivot konfigürasyonları öneren bir sistem geliştirmiştir13. Bu yaklaşımda agent, yalnızca sayıları değil sütun isimlerinin anlamını da değerlendirmekte. Örneğin “İndirim dönemlerindeki iade oranlarını pivotla” komutunda, hangi sütunun indirim hangi sütunun iade olduğunu mantıksal olarak eşleştirmekte.

Token Optimizasyonu: Pre-Pivot Stratejisi

AI agent’lara ham veri göndermek yerine önceden pivot edilmiş özetler göndermek, token maliyetini %60-80 oranında düşürmekte14:

import pandas as pd
import json

# Ham veri: 10.000 satır e-ticaret verisi
df = pd.read_csv('satislar.csv')

# Pre-pivot özet: AI agent için
pivot = df.pivot_table(
    index='Kategori',
    values=['Satış', 'İade'],
    aggfunc={'Satış': 'sum', 'İade': 'mean'}
).reset_index()

# Flag ekleme: Agent'ın odaklanması gereken noktalar
pivot['Durum'] = pivot.apply(
    lambda x: 'Kritik' if x['İade'] > 3 else 'Stabil', axis=1
)

# JSON formatında agent'a gönder
context = pivot.to_json(orient='records', force_ascii=False)

Bu yaklaşım iki kritik avantaj sağlamakta:

  1. Token tasarrufu: 10.000 satırlık ham log yerine 10-20 satırlık pivot özet
  2. Doğruluk artışı: Flag (Durum, Trend) sütunları, agent’ın “nereye bakmalıyım?” sorusuna yanıt vermekte ve hallucination riskini azaltmakta

Tarayıcı Tabanlı Agent’lar

Bir e-ticaret panelinde (Shopify, WooCommerce) gezinen tarayıcı tabanlı AI agent’lar, ekrandaki karmaşık tabloyu anında pivot yapıya dönüştürüp anomali tespiti yapabilmekte: “Satışlar artarken kar düşüyor” gibi uyarılar üretebilmekte.


E-ticaret Pivot Analizi Pratikleri

Yaygın Pivot Kalıpları

KalıpSatır (Index)SütunDeğerAmaç
Kategori performansıÜrün kategorisiAy/ÇeyrekSatış toplamıMevsimsel trendler
Kohort analiziEdinme ayıSonraki aylarRetention oranıMüşteri sadakati
Kanal x BölgePazarlama kanalıCoğrafi bölgeGelirKanal etkinliği
Ürün matrisiSKUMetrikler (gelir, iade, marj)DeğerlerÜrün sağlığı
Müşteri LTVMüşteri segmentiDönemYaşam boyu değerSegment karşılaştırması

Modern Veri Yığınında Pivot

Modern veri yığını mimarisinde (dbt, Looker, BigQuery) pivot işlemi genellikle dönüşüm katmanında gerçekleşmekte15:

  1. Veri aktarımı: Fivetran/Stitch ile ham e-ticaret verisi ambarına
  2. Dönüşüm (dbt): dbt_utils.pivot() makrosu ile SQL pivot işlemleri, hardcode olmadan dinamik sütun oluşturma
  3. BI katmanı: Looker/Tableau, dbt tarafından dönüştürülmüş verileri tüketmekte
  4. Reverse ETL: Census/Hightouch ile pivot edilmiş sonuçlar CRM ve pazarlama araçlarına geri aktarılmakta

ShopifyQL ve Pivot

Shopify’ın Haziran 2022’de tanıttığı ShopifyQL, e-ticaret verisi üzerinde sorgu yazmayı standart SQL’e göre belirgin şekilde sadeleştirmekte16. COMPARE TO previous_year ile dönem karşılaştırması (SQL’de self-join gerektiren işlem), WITH TOTALS ve GROUP_TOTALS ile satır/sütun toplamları, WITH PERCENT_CHANGE ile yüzde değişim hesaplaması tek satırda yapılabilmekte:

FROM sales
  SHOW net_sales
  GROUP BY product_type
  SINCE -12m
  COMPARE TO previous_year
  WITH TOTALS, PERCENT_CHANGE
  VISUALIZE

Ancak ShopifyQL, gerçek pivot/crosstab (satırları sütunlara dönüştürme) işlemini henüz desteklememekte. Subquery ve CTE desteği de bulunmamakta. Aralık 2025’te tanıtılan Sidekick AI entegrasyonu ile doğal dil üzerinden ShopifyQL sorguları üretilebilmekte ve Sidekick Pulse ile proaktif anomali tespiti yapılabilmekte17.

Karmaşık pivot senaryolarında önerilen yaklaşım: ShopifyQL ile GROUP BY özeti alıp, Fivetran veya Airbyte ile BigQuery’ye aktarmak ve orada DuckDB PIVOT veya dbt_utils.pivot() ile gerçek pivot işlemi uygulamaktır. Google Connected Sheets üzerinden BigQuery verisini doğrudan Sheets pivot table olarak analiz etmek de etkili bir alternatif sunmakta.


Web Scraping ve Rekabet İstihbaratı

E-ticaret alanında rakip fiyat takibi ve pazar analizi için web scraping ile toplanan verileri pivot tablolarla analiz etmek yaygın bir pratiktir.

Araç Yelpazesi (2025-2026)

AraçTipKullanımDurum
Scrapy 2.12+FrameworkBüyük ölçekli yapısal crawlingAktif
Playwright 1.49+Tarayıcı otomasyonuJavaScript ağırlıklı siteler, SPAAktif
ScrapeGraphAIAI destekliSemantik çıkartma, düşük bakımYeni
Crawl4AIAçık kaynakLLM uyumlu çıktı, ücretsizYeni

Anti-Bot Zorlukları

2025-2026 itibarıyla anti-bot korumalar belirgin şekilde sertleşti. Cloudflare Turnstile, TLS/HTTP2 parmak izi ve JavaScript challenge kullanmakta; DataDome ise ML tabanlı gerçek zamanlı bot tespiti yapmakta. Puppeteer-stealth Şubat 2025’te sona erdi; aktif alternatifler Nodriver, SeleniumBase UC Mode ve Camoufox olarak öne çıkmakta18.

ScrapeGraphAI’nin yapay zeka yaklaşımı, CSS selektörlere bağlı scraperlardan %70 daha az bakım gerektirmekte. LLM’ler sayfa semantiğini HTML yapısı değişikliklerinden bağımsız olarak anlayabilmekte.

Scraping’den Pivot’a Pipeline

from playwright.async_api import async_playwright
import duckdb

# Veriyi DuckDB'de depola
con = duckdb.connect("rakip_fiyatlari.duckdb")

# Rakip fiyat karşılaştırması: PIVOT
con.execute("""
    PIVOT price_history
    ON competitor
    USING AVG(price) AS ort_fiyat, MIN(price) AS min_fiyat
    GROUP BY product_sku
    ORDER BY product_sku
""")

Hukuki açıdan: robots.txt’e uyulması, istekler arası minimum 1-2 saniye beklenmesi ve ToS kontrolü önerilmektedir. Fiyat verisi genel olarak kişisel veri kapsamında değerlendirmemekle birlikte, KVKK kişisel veri içeren scraping işlemlerinde geçerlidir.


WooCommerce Veri Analitiği

WooCommerce REST API v3, sipariş, ürün, müşteri ve kupon verilerini programatik olarak çıkarmayı mümkün kılmakta. Shopify’ın dakikada 40 API isteği sınırının aksine, WooCommerce doğrudan veritabanı erişimi ile sınırsız çalışmakta19. Sipariş filtreleme işlemleri için WooCommerce REST API - Siparişlerin Filtrelenmesi yazısına da göz atabilirsiniz.

API’den Pivot’a

from woocommerce import API
import pandas as pd

wcapi = API(
    url="https://magaza.com",
    consumer_key="ck_xxx",
    consumer_secret="cs_xxx",
    version="wc/v3"
)

# Tüm siparişleri sayfalama ile çek
all_orders = []
page = 1
while True:
    response = wcapi.get("orders", params={"per_page": 100, "page": page})
    orders = response.json()
    if not orders:
        break
    all_orders.extend(orders)
    page += 1

df = pd.json_normalize(all_orders, sep='_')

RFM Analizi

import numpy as np

snapshot = df["order_date"].max() + pd.Timedelta(days=1)

rfm = df.groupby("customer_id").agg(
    recency=("order_date", lambda x: (snapshot - x.max()).days),
    frequency=("order_id", "nunique"),
    monetary=("line_total", "sum")
).reset_index()

# 1-5 arası skorlama
for col in ["recency", "frequency", "monetary"]:
    labels = range(5, 0, -1) if col == "recency" else range(1, 6)
    rfm[f"{col}_score"] = pd.qcut(
        rfm[col], q=5, labels=labels, duplicates="drop"
    ).astype(int)

# Segment pivot
rfm_pivot = rfm.pivot_table(
    values="monetary",
    index="segment",
    aggfunc=["count", "mean", "sum"]
).round(2)

WooCommerce MCP Entegrasyonu

WooCommerce 10.3 (2025), ilk resmi MCP (Model Context Protocol) entegrasyonunu tanıtmıştır. Bu entegrasyon, AI agent’ların ürün arama, ekleme ve güncelleme işlemlerini doğrudan yapmasını sağlamakta.

BigQuery Entegrasyon Yolları

AraçYöntemMaliyet
AirbyteAçık kaynak ETLÜcretsiz (self-hosted)
n8nİş akışı otomasyonuÜcretsiz (self-hosted)
Coupler.ioNo-code zamanlayıcı$49/ay’dan
Doğrudan DBServer-side tracking -> BigQueryAltyapı maliyeti

BigQuery ile E-ticaret Pivot İşlemleri

BigQuery’nin yerel PIVOT operatörü, GA4 e-ticaret verisi üzerinde güçlü analiz imkanı sunmakta20. Veri ambarı kavramına aşinaysanız, BigQuery bu mimarinin bulut-native uygulaması olarak düşünülebilir.

GA4 Verisinde PIVOT

SELECT *
FROM (
    SELECT
        items.item_category AS kategori,
        event_name,
        items.price * items.quantity AS gelir
    FROM `project.analytics_XXXXXX.events_*`,
    UNNEST(items) AS items
    WHERE _TABLE_SUFFIX BETWEEN '20250101' AND '20250131'
    AND event_name IN ('purchase', 'add_to_cart', 'view_item')
)
PIVOT (
    SUM(gelir) AS toplam
    FOR event_name IN ('purchase', 'add_to_cart', 'view_item')
);

BigQuery ML

BigQuery ML, e-ticaret tahmini için doğrudan SQL ile model oluşturmayı mümkün kılmakta:

  • ARIMA_PLUS: Günlük gelir tahminleri, Türk tatil takvimi desteği (holiday_region = 'TR'), aynı anda 100 milyon zaman serisi
  • K-means: RFM skorlarından müşteri segmentasyonu, standardize_features = TRUE ile otomatik ölçekleme

Maliyet Optimizasyonu

TeknikTasarrufUygulama
Partitioning%90’a kadar tarama azaltımıPARTITION BY DATE(event_timestamp)
Clustering%30-60 ek azaltımCLUSTER BY event_name, user_id
Materialized ViewsOtomatik yenilenen ön-toplamlarıCREATE MATERIALIZED VIEW
Sütun seçimiDeğişkenSELECT * kullanılmamalı

BigQuery on-demand fiyatlandırması: ayda ilk 1 TB ücretsiz, sonrası $6.25/TB. Tipik bir e-ticaret mağazasının (500K sipariş/yıl) aylık 500 GB’lik sorgu hacmi, ücretsiz kotanın içinde kalmakta.

BI Engine, sık erişilen verileri otomatik önbellekleyerek saniyenin altında sorgu yanıtı ve 4-10 kat performans iyileştirmesi sağlamakta.


Local LLM ile Gizlilik Odaklı Analiz

Müşteri verilerini (isim, e-posta, adres, satın alma geçmişi) bulut LLM API’lerine göndermek, KVKK kapsamında sınır ötesi veri aktarımı oluşturmakta. Local LLM’ler bu sorunu tasarım gereği çözmekte21.

Ollama ile Kurulum

ollama pull qwen2.5-coder:14b    # Kod üretimi + veri analizi
ollama pull mistral-nemo:12b      # Çok dilli, genel analiz
ollama pull phi4:14b              # Güçlü akıl yürütme

VRAM Gereksinimleri (Q4_K_M Niceleme)

ModelParametreVRAMEn İyi Kullanım
Qwen2.5-Coder 7B7B6-7 GBKod üretimi, SQL yazımı
Qwen2.5-Coder 14B14B10-12 GBKarmaşık analitik kod
Mistral Nemo 12B12B8-10 GBÇok dilli, genel analiz
Phi-4 14B14B10-12 GBAkıl yürütme, matematik
DeepSeek-R1 14B14B10-12 GBZincir düşünce

Donanım kademeleri: 8 GB VRAM (RTX 4060) ile 7B modeller, 12-16 GB (RTX 4070 Ti, M2 Pro/Max) ile 12-14B modeller, 24 GB (RTX 4090, M3 Max) ile 32B modeller çalıştırılabilmekte.

Pivot Özet ile Local LLM

import ollama
import json

pivot_ozet = """
Aylık Gelir (Kategori):
| Kategori    | Oca    | Sub    | Mar    |
|-------------|--------|--------|--------|
| Elektronik  | 45.200 | 38.100 | 52.300 |
| Giyim       | 22.100 | 19.800 | 28.500 |

RFM Segmentleri:
| Segment     | Sayı | Ort Harcama | Ort Yakınlık |
|-------------|------|-------------|--------------|
| Şampiyonlar | 342  | 1.250 TL    | 8 gün        |
| Risk Altında| 891  | 480 TL      | 67 gün       |
"""

response = ollama.chat(
    model="qwen2.5-coder:14b",
    messages=[{
        "role": "user",
        "content": f"Bu e-ticaret pivot verisini analiz et. "
                   f"JSON formatında döndürün.\n{pivot_ozet}"
    }],
    format="json"
)

KVKK Uyumluluğu

KVKK (Kişisel Verilerin Korunması Kanunu), 2025 güncellemesiyle idari para cezalarını 68.083 TL ile 13,6 milyon TL arasına yükseltmiştir (%43,93 artış). Aralık 2025’te yayımlanan “Üretici Yapay Zeka ve Kişisel Verilerin Korunması” rehberi, LLM geliştiricilerine “tasarımdan itibaren gizlilik” (privacy by design) ilkesini zorunlu kılmakta22.

Local LLM kullanıldığında: embedding üretimi, vektör arama ve LLM çıkarımı tamamen yerel ortamda gerçekleşmekte. Hiçbir veri dışarıya çıkmamakta.

Hibrit Mimari

Katman 1: Veri Çıkarma (Yerel)
  WooCommerce API -> Python -> Polars -> DuckDB
  Maliyet: $0 (işlem gücü)

Katman 2: Pivot + Özetleme (Local LLM)
  Ham veri -> pivot tablo -> Ollama (Qwen2.5-Coder 14B)
  Maliyet: ~$0 (elektrik, ~$0.02/saat GPU)
  KVKK uyumlu: tüm PII yerel ortamda

Katman 3: Stratejik İçgörüler (Bulut LLM, opsiyonel)
  Ön-pivot, anonimleştirilmiş özetler -> Claude / GPT-4o
  Maliyet: sorgu başına ~$0.02-0.04

Bu yaklaşım, %85-95 maliyet düşüşü sağlarken KVKK uyumluluğunu korumakta.


LLM’lerin Tablo Verileriyle Sınırları

AI agent’lar pivot table ile güçlendikçe, bu modellerin tablo verilerindeki sınırlarını anlamak kritik önem taşımakta.

Yapısal Uyumsuzluk

Tablo verisi iki boyutlu, ilişkisel bir yapıya sahipken LLM’ler tek boyutlu, otoregresif bir hedefle eğitilmektedir. Bir tablo metne serileştirildiğinde satır ve sütun sınırları bulanıklaşır, model satır/sütun karışmalarına duyarlı hale gelir ve büyük veri setlerinde bağlam penceresi sınırlarına takılır23.

Sayısal Hassasiyet Hataları

Sayılar tokenizasyon sırasında karakter dizileri olarak işlenmekte, büyüklük ve sayısal sıra bilgisi kaybolmaktadır. Altı büyük LLM üzerinde yapılan araştırmalarda olgusal halüsinasyon oranlarının %59 ile %82 arasında değiştiği, sayısal geri çağırım güvenilirliğinin ise sıfıra yakın olduğu saptanmıştır24.

Tablo Yapısal Anlama Benchmark’ları

BenchmarkYılKapsamBulgu
SUC (Microsoft)WSDM 20247 temel tablo göreviEn iyi doğruluk: %65,43
TableBenchAAAI 2025886 örnek, 18 alt kategoriGPT-4 bile insandan belirgin geride
RealHiTBenchACL 2025708 hiyerarşik tablo, 3.752 QAHiyerarşik başlıklar modelleri zorladı
MMQAICLR 2025Çoklu tablo, çok adımlı akıl yürütmeTüm modeller insan performansından geride
MMTU202530.000+ soru, 25 görevAkıl yürüten modeller +10 puan avantajda
TReB202526 alt görev, 3 çıkarım moduICoT (araya giren zincir düşünce) en iyi

Tablo transpozisyon doğruluğu yaklaşık %50 (rastgele tahmine yakın), başlık tanıma ise %94-97 doğrulukta. Bu, modellerin tablo içeriğini anlayabildiği ancak yapısal dönüştürmede başarısız olduğu anlamına gelmektedir25.

Serileştirme Formatı Karşılaştırması

11 farklı format üzerinde yapılan testlere göre26:

FormatDoğrulukToken Kullanımı
Markdown KV%60,72,7x (bazal)
XML%56,02,3x
YAML%54,71,9x
Doğal dil%49,63,0x
CSV%44,31,0x (en düşük)

Markdown KV en yüksek doğruluğu sağlamakta, ancak CSV’ye göre 2,7 kat daha fazla token tüketmektedir. Token bütçesi kısıtlı olduğunda CSV, doğruluk öncelikli olduğunda Markdown KV önerilmektedir.

Çözüm Stratejileri

  1. Kod üretimi yaklaşımı: LLM’e doğrudan veri analiz ettirmek yerine pandas/SQL kodu yazdırmak. Hesaplama işini deterministik araca bırakır
  2. Şema + örnek satırlar: Tablonun tamamını değil, sütun isimleri, veri tipleri ve ilk 5 satırı göndermek
  3. ICoT (Araya Giren Zincir Düşünce): Metin akıl yürütme ve kod yürütmeyi dönüşümlü olarak kullanmak. TReB benchmark’ında en iyi sonucu vermekte
  4. Code Interpreter: Claude ve GPT’nin kod yürütme araçları, sayısal halüsinasyonu tamamen ortadan kaldırmakta
  5. SpreadsheetLLM (Microsoft, EMNLP 2024): Token kullanımında %96 azaltım ve tablo tespitinde %25,6 iyileştirme sağlayan sıkıştırma yaklaşımı27

Maliyet ve Token Optimizasyonu

Ham Veri ve Pivot Özet Karşılaştırması

YaklaşımSatırToken (Tahmini)Maliyet (GPT-4o)
Ham sipariş verisi (10K)10.000~250.000~$0,625
Kategori+Ay ön-gruplama~200~10.000~$0,025
Yalnızca özet istatistikler~20~2.000~$0,005

Ön-pivot ile %95-99 token tasarrufu mümkündür. CSV formatı JSON’a göre %40-50 daha az token tüketmektedir.

API Fiyatlandırması (Şubat 2026)

ModelGiriş/1M TokenÇıkış/1M TokenToplu İşlem
GPT-4o$2,50$10,00%50 indirim
GPT-4o mini$0,15$0,60%50 indirim
Claude Sonnet 4.5$3,00$15,00%50 indirim
Claude Haiku 4.5$1,00$5,00%50 indirim
Gemini 2.0 Flash$0,10$0,40-
Local (Ollama)~$0~$0-

Anthropic, prompt caching ile tekrarlayan sorgularda giriş token maliyetini %90 düşüren bir mekanizma sunmakta. OpenAI Batch API ise 24 saat içinde sonuç ileterek %50 indirim sağlamakta.

Karar Matrisi

DurumÖnerilen Yaklaşım
Veri PII içeriyorYalnızca local LLM (KVKK gereksinimi)
Veri < 100K satır, basit pivotpandas/Polars, LLM gerekmiyor
Veri > 1M satır, karmaşık pivotBigQuery ($6,25/TB) veya DuckDB (ücretsiz)
Pivottan doğal dil içgörüÖn-pivot yerel, özeti bulut LLM’e gönder
Toplu işlem (günlük raporlar)Batch API (%50 indirim), gece işleme

Pratik Rehber: Hangi Durumda Hangi Araç?

SenaryoÖnerilen AraçNeden
Hızlı keşif, küçük veriExcel / Google SheetsSürükle-bırak, görsel
Doğal dil ile pivotExcel Copilot / Gemini”Bölgelere göre satış pivotu”
BigQuery üzerinde analizGoogle Connected SheetsMilyarlarca satır, Sheets arayüzü
Programatik analiz (orta veri)pandas pivot_table()Yaygın, iyi belgelenmiş
Büyük veri (milyon+ satır)Polars5-10x hızlı, düşük bellek
SQL tabanlı pivotDuckDB PIVOTDoğrudan SQL sözdizimi
İstatistiksel analizR tidyverse / data.tablepivot_wider, ggplot2
Tarayıcıda pivotAG Grid / FlexmonsterBüyük veri, kurumsal
AI agent hazırlıkpandas/Polars + JSONPre-pivot, flag ekleme
Veri mühendisliğidbt_utils.pivot()Tekrarlanabilir, versiyon kontrollü
Rakip fiyat takibiScrapy/Playwright + DuckDBScraping -> pivot pipeline
WooCommerce analiziwc-api-python + PolarsREST API, sınırsız erişim
BigQuery pivotPIVOT operatörü + BI EngineGA4, milyarlarca satır
Gizlilik odaklı analizOllama + Qwen2.5-CoderKVKK uyumlu, ücretsiz

Sonuç

Pivot table, veri analitiğinin temel araçlarından biri olarak konumunu korumakta. Ancak 2026 itibarıyla rolü önemli ölçüde evrildi: artık sadece insanların okuduğu bir rapor tablosu değil, AI agent’ların veriyi sindirebilir parçalara ayırdığı bir ara katman. Excel Copilot ve Google Gemini ile doğal dil üzerinden pivot oluşturulabiliyor, Polars ile milyonlarca satır saniyeler içinde pivotlanabiliyor ve pre-pivot özetler sayesinde AI agent’ların token maliyeti %60-80 oranında düşürülebiliyor.

E-ticaret analitiğinde pivot table, kohort analizi, kategori performansı ve müşteri segmentasyonu gibi kritik iş sorularına yanıt vermenin en doğrudan yoludur. Modern veri yığınında ise pivot işlemi, dbt dönüşüm katmanında bir kez tanımlanıp tüm alt akış tüketicileri tarafından kullanılmakta.

Ancak LLM’lerin tablo verileriyle çalışırken yapısal sınırlamaları bulunmakta: transpozisyon doğruluğu %50, sayısal halüsinasyon oranı %59-82. Bu nedenle hesaplama işini LLM’e bırakmak yerine kod ürettirmek, deterministik araçları (pandas, DuckDB, BigQuery) hesaplama için kullanmak ve LLM’i yalnızca içerik üretimi ve doğal dil içgörüleri için konumlandırmak en etkili strateji olmaya devam etmekte. Local LLM’ler ise KVKK uyumluluğu ve sıfır marjinal maliyet avantajıyla e-ticaret veri analizinde giderek daha güçlü bir alternatif sunmakta.

Pivot table kullanımı farklı platformlarda da detaylı olarak ele alınmakta: Looker Studio Pivot Table, Google Analytics Pivot Tablo ve Facebook Analytics Pivot Tablo.

Footnotes

  1. Data Model specification and limits - Microsoft Support
  2. DAX function reference - Microsoft Learn
  3. Agent Mode in Excel - Microsoft Tech Community
  4. Powerful pivot tables in Connected Sheets - Google Workspace Updates
  5. Gemini in Google Sheets - Google Workspace Updates
  6. pandas 3.0.0 What’s New
  7. Polars PDS-H Benchmark
  8. DuckDB PIVOT Statement
  9. tidyr Pivoting Vignette
  10. data.table CRAN
  11. Arquero - Columnar JavaScript Data
  12. Claude Code Interpreter
  13. Pivot Table Recommendation with Semantic Embeddings
  14. A Guide to Token-Efficient Data Prep for LLM Workloads - The New Stack
  15. dbt_utils pivot macro
  16. ShopifyQL - Commerce Data Querying Language
  17. Shopify Editions Winter ‘26
  18. Web Scraping Trends for 2025 and 2026
  19. WooCommerce REST API Documentation
  20. How to Create Pivot Table with GA4 Data in BigQuery
  21. Run LLMs Locally with Ollama: Privacy-First AI 2025
  22. KVKK 2025 Updates: A Compliance Guide for Companies
  23. Why LLMs Struggle with Your Spreadsheet Data - Tryolabs
  24. Guide to Hallucinations in Large Language Models - Lakera
  25. Table Meets LLM: Can Large Language Models Understand Structured Table Data? - WSDM 2024
  26. Which Table Format Do LLMs Understand Best?
  27. SpreadsheetLLM - Microsoft Research, EMNLP 2024