Google sıra bulucu, bir anahtar kelime için sitenizin organik arama sonuçlarında kaçıncı sırada göründüğünü ölçen araçların genel adıdır. Pratikte iş ne kadar basit görünse de — "sitem kaçıncı sırada" sorusunun arkasında kişiselleştirme, coğrafi konum, dil, cihaz, oturum geçmişi, A/B'li SERP düzenleri, AI Overview blokları, yerel paketler ve sürekli değişen Google algoritması durur. Bu rehber, sıra bulucuların nasıl çalıştığını, hangi metodolojinin güvenilir olduğunu ve günlük/haftalık sıralama takibi için ölçülebilir bir sistem nasıl kurulacağını teknik derinlikte anlatıyor.
İlgili rehberler: Arama motoru nedir, SEO rehberi · Teknik SEO kontrol listesi 2026 · Core Web Vitals 2026 · WordPress SEO plugin önerileri · Yerel SEO rehberi · E-ticaret SEO rehberi
Sıra Bulucu Nedir, Aslında Ne Ölçer?
Bir sıra bulucu (rank checker), belirttiğiniz alan adının belirttiğiniz anahtar kelime için Google'ın ilk 100 organik sonucu içinde hangi pozisyonda göründüğünü tespit eder. Tipik girdi üç kalemdir: hedef domain (ya da spesifik URL), aranacak kelime, arama yapılacak konum/dil/cihaz. Çıktı ise tek bir sayıdır — "7. sırada" gibi — ya da "ilk 100'de bulunamadı" cevabıdır.
Bu "tek sayı" kulağa basit gelse de yanıltıcıdır. Aynı anda Türkiye'de iki farklı kullanıcı aynı kelimeyi arattığında çoğunlukla farklı sıralama görür. Sebep tek değil: kişiselleştirme, geo-IP, dil, cihaz tipi, son arama geçmişi, oturum açıklığı, hatta yıl-ay-saat-dakika düzeyinde değişen algoritma sinyalleri. Dolayısıyla sıra bulucunun ölçtüğü şey "mutlak gerçek" değil, tutarlı bir referans noktasıdır: aynı koşullarda gün bazında ve haftalık trend olarak nasıl değiştiğinizi görmek için. Aynı kelimeyi 24 saat boyunca dakikada bir sorgulayan bir bot bile pozisyon değişimi raporlar; oysa bu değişimlerin çoğu gerçek algoritma hareketi değil, Google'ın load-balancer veya datacenter düzeyindeki minik dalgalanmalarıdır. SEO ekipleri buna "SERP shimmer" der ve istatistik olarak filtrelenmesi gereken gürültü kabul eder.
Bu yüzden bir sıra bulucu seçerken sorulacak ilk soru "sonuç doğru mu?" değil, "sonuç tekrarlanabilir mi?" olmalıdır. Tekrarlanabilirlik için araç sürekli olarak aynı kişiselleştirilmemiş, belirli geo-konumdan, belirli cihaz profiliyle sorgu yapmalıdır.
Google Sonuç Sayfası 2026'da Nasıl Görünüyor?
Sıra bulucuyu anlamak için önce Google SERP'ini anlamak lazım. 2026 itibarıyla bir SERP sayfasında genelde şu bloklar bulunur: AI Overview (eski SGE), Featured Snippet (öne çıkan parçacık), People Also Ask (insanlar şunu da soruyor), Yerel Paket (Map Pack), Görseller, Videolar, Top Stories, Shopping/Alışveriş, Twitter/X carousel, ve nihayet 10 mavi bağlantı (organik sonuçlar). Aralara serpiştirilmiş Sponsorlu sonuçlar (Ads) zaten organik dışıdır.
Buradaki kritik soru şudur: bir sıra bulucu "3. sırada" derken neyi sayıyor? Sadece organik sonuçları mı (klasik 10 mavi link)? Yoksa görsel/video/AI Overview blokları dahil tüm dikey görünümü mü? İki yaklaşım da meşrudur ama farklı şeyleri ölçerler. Çoğu profesyonel araç hem "organic position" hem "absolute top position" diye iki ayrı metrik tutar — Google Search Console da aynı ayrımı yapar. Bir kelimede 3. organik pozisyonda olabilirsiniz ama sayfada üstünüzde Featured Snippet, AI Overview ve 3 reklam birden duruyorsa, gerçek dikey sıranız 7-8 olur ve tıklama oranınız da buna göre yarıya iner. Bu yüzden tek bir "sıra" sayısı yerine, aynı kelime için iki ayrı pozisyon tutmak ve raporda her ikisini birden göstermek profesyonel pratiktir.
- Organic position: yalnızca organik (mavi link) sonuçlar arasındaki sıra. AI Overview, görsel paketi, ads sayılmaz.
- Absolute / blended position: tüm SERP öğelerini sırayla sayan pozisyon. Tıklama oranını (CTR) kestirmek için daha gerçekçi.
- SERP feature ownership: Featured snippet veya PAA'da görünmeniz organik sıralamadan bağımsız değer taşır.
- Visibility share: hedef kelime sepetinde toplam görünürlük yüzdesi — tek kelimeden çok daha bilgilendirici.
Sitem Kaçıncı Sırada Sorusunun Üç Cevap Yöntemi
Sitem kaçıncı sırada sorusunu yanıtlamanın üç temel teknik yolu vardır: manuel arama, otomatik scraping (sıra bulucu siteleri ya da kendi botunuz), ve resmi/yarı-resmi API'ler (Google Search Console + üçüncü taraf SERP API'leri). Her birinin maliyeti, doğruluğu ve riski farklıdır.
1. Manuel Arama: En Basit, En Yanıltıcı
Tarayıcınızı açıp "google.com.tr" adresinde anahtar kelimeyi yazıp sonucu saymak en doğal refleks. Ne yazık ki en kötü yöntem de bu. Çünkü tarayıcınızda Google hesabınızla oturum açıksanız, Google geçmiş tıklamalarınıza ve ilgi alanlarınıza göre sonuçları yeniden sıralar. Coğrafi konum (IP'niz İstanbul mu, Ankara mı) bambaşka yerel paket gösterir. Cookie'leriniz, dil tercihiniz, hatta tarayıcı sürümünüz sonucu değiştirebilir.
Manuel arama yapacaksanız en azından şu üç önlemi alın: incognito/gizli pencere kullanın, Google hesabından çıkış yapın, &pws=0 parametresiyle kişiselleştirmeyi devre dışı bırakın. Yine de gerçek bir kişiselleştirme yokluğunu garanti edemezsiniz — Google IP bazlı zayıf bir kişiselleştirme uygular.
uule parametresi sıra bulucuların gizli silahıdır. Bu parametre, Google'a sorguyu sanki "İstanbul, Türkiye" veya "Konya, Türkiye" konumundan yapılıyormuş gibi simüle ettirir. Doğru base64 kodlaması ile şehir veya ilçe seviyesine kadar inebilirsiniz; profesyonel SERP API'leri bunu otomatik yönetir. uule Google tarafından resmi olarak belgelenmemiş ama yıllardır kullanılan bir parametredir, dolayısıyla bir gün format değişebilir; bu yüzden ona doğrudan bağımlı kod yerine, lokasyonu parametre olarak alıp uule'ye dönüştüren bir abstraction katmanı yazın. Aynı şekilde ek sinyaller gibi near=, lr=lang_tr, cr=countryTR gibi parametreler de Google'ın belirli sürümlerinde aktif kullanılır; profesyonel araçlarda bu değişiklik takibi sürekli yapılır.
2. Sıra Bulucu Siteleri (Scraping Tabanlı)
Türkiye pazarında bolca sıra bulucu hizmeti mevcut: web tabanlı arayüzler genellikle sunucu tarafında headless tarayıcı veya HTTP istemci ile Google'a istek atar, sonucu parse eder ve size pozisyonu döndürür. Ücretsiz versiyonlar günde 3-10 sorguyla kısıtlı; aylık 200-2000 TL arası ücretli paketler 100-10.000 sorgu sunabilir (yaklaşık, sağlayıcıya göre değişir, 2026 figürleri).
Bu yöntem teknik olarak çalışır ama riski vardır: Google'ın Hizmet Şartları otomatik scraping'i açıkça yasaklar. Profesyonel araçlar bu sebeple çok sayıda residential proxy üzerinden, insan benzeri davranış simülasyonu ile çalışır. "Tek IP'den dakikada 50 sorgu" yapan ev yapımı bir bot kısa sürede Google CAPTCHA'sına çarpar.
3. Google Search Console + SERP API Kombinasyonu
En güvenilir yaklaşım hibrit kullanımdır: Search Console kendi sitenizin gerçek kullanıcılarının gördüğü ortalama pozisyonu verir (bu en sağlam veridir, çünkü Google'ın kendi kayıtlarından gelir), bir SERP API ise rakipleriniz için, sizin sitenizde görünmeyen kelimeler için ve günlük takip için kullanılır.
GSC'nin avantajı: impressions (gösterim), clicks (tıklama), average position (ortalama sıra) ve CTR birlikte gelir. Yani sadece "7. sıradayım" değil, "7. sıradayım, ayda 1240 gösterim, 38 tıklama, %3 CTR" bilgisini alırsınız. Detaylı entegrasyon için SEO rehberinde anlattığımız Search Console kurulumunu uygulayın.
Google Search Console API ile Programatik Sıralama Sorgulama
Search Console'un web arayüzü pratikte ilk birkaç bin sorguyu gösterir; gerçek kapsamlı veriyi Search Analytics API'den çekersiniz. Resmi referans: developers.google.com — searchanalytics/query.
Bu komut size kelime + sayfa + cihaz + ülke kırılımında ortalama pozisyon döker. Daily cron ile çalıştırıp Postgres veya BigQuery'e yazarsanız, kendi sıralama takip sisteminizi sıfırdan kurmuş olursunuz — ücretsiz.
GSC Verisinin Sınırları
- Sadece kendi siteniz: rakipleriniz için veri yok. Karşılaştırmalı sıralama için ayrı bir SERP API gerekir.
- Anonim filtreleme: günde 10'dan az tıklama alan kelimeler privacy nedeniyle sayılmaz; uzun kuyruk eksik kalır.
- Ortalama pozisyon: 7.3 gibi ondalıklı veri tek bir noktayı değil, ay boyunca alınan tüm gösterimlerin ortalamasıdır.
- 16 ay tarih limiti: API yalnızca son 16 ayı verir; uzun dönem trend için kendi veritabanınıza arşivleyin.
- Date freshness:
dataState=final2-3 günlük gecikme demektir. Anlık veri içinallkullanın.
Üçüncü Taraf SERP API'leri: Karşılaştırma
Rakip izleme, henüz hiç sıralanmadığınız kelimeler ve günlük takip için ticari SERP API'leri kullanılır. Hepsi temelde aynı şeyi yapar: yüzlerce ülkeye dağıtılmış proxy ağından Google'a sorgu atar, HTML'i parse eder, JSON döner. Aralarındaki gerçek farklar fiyat, latency, cihaz/dil/şehir granülerliği, parsing kalitesi ve fatura hacmidir.
- SerpApi: $50–$5000/ay aralığı (yaklaşık, plan değişikliklerine göre değişir). Lokasyon ve cihaz kontrolü çok iyi, AI Overview ve PAA'yı parse eder.
- DataForSEO: pay-as-you-go modeli, sorgu başı $0.0006'dan başlar (yaklaşık). Toplu (batch) işler için ekonomik.
- Bright Data SERP API: enterprise odaklı, residential proxy garantisi, fiyat müzakereye açık.
- Oxylabs SERP Scraper: yüksek hacim ve AI parsing özellikleri, $50/ay'dan başlar (yaklaşık, 2026 figürleri).
- Yerel sağlayıcılar: Türkiye'de SerpTakip, Dopinger, Yonkasoft, IHS, R10, Camdalio, Tepeseo, Seocu, Seopix, Turksem gibi yerel araçlar — UI Türkçedir, fiyatlandırma TL bazlı, gün başı 50–2000 sorgu paketleri yaygın.
Yerel araçlardan birini seçecekseniz şunlara dikkat edin: günlük sorgu kotası, şehir bazlı geo (sadece "Türkiye" değil, "Konya, Türkiye"), cihaz seçimi (mobil ve masaüstü ayrı), historical chart (en az 90 gün), CSV export ve API erişimi. UI'ye gömülü hizmetler güzel ama otomasyon için API şart.
Kendi Sıra Bulucunuzu Yazmak: Mantık ve Riskler
"Neden ödeyeyim, kendim yazarım" diyebilirsiniz. Tek seferlik düşük hacimli ihtiyaç için makul; günlük yüzlerce kelime için ise kısa sürede kabusa döner. Yine de mantığı bilmek mimari kararlar için faydalıdır.
Bu kod gösterim amaçlı. Production'da çözmeniz gereken problemler: proxy rotation (en az 50 IP, tercihen residential), User-Agent çeşitlendirme, akıllı throttling (saat başı 30-60 sorgu max IP başına), CAPTCHA tespiti ve bypass denemeleri (tehlikeli ve kırılgan), HTML şeması değişikliklerine karşı düzenli parser bakımı, log/monitoring/alerting. Tek başına 100 kelimelik bir liste için bile günde 4-8 saat çalışır operasyonel yük çıkarabilir. Üstelik Google son yıllarda Web Components, deferred rendering ve dinamik DOM injection kullanmaya başladığı için saf requests + BeautifulSoup bazlı parser'lar artık eksik kalır; ciddi sıra buluculara Playwright veya Puppeteer ile headless tarayıcı gerekir, bu da CPU/RAM tüketimini ve maliyeti 5-10 katına çıkarır. Dolayısıyla "kendi yazarım" kararı genellikle 6 ay sonra "hazır API kullanalım" kararına dönüşür — operasyonel yorgunluk en sık nedendir.
Etik ve Yasal Yan: ToS
Google'ın Terms of Service dokümanı otomatik sorguyu açıkça yasaklar. Bu yasak ihlal edildiğinde Google sorumluya aktif dava açmaz; ama IP'nizi banlayabilir, hesabınızı askıya alabilir, ve nadiren (yüksek hacim + ticari amaç) cease & desist mektubu gelebilir. Profesyonel araçlar bu yüzden "Google'a değil, Google sonuçlarını gösteren tarayıcıya" sorgu attıklarını söyler — hukuki gri alan.
Doğru Ölçüm Metodolojisi: Tekrarlanabilirlik İlkesi
Bir SEO sıralama metodolojisinin değeri tekrarlanabilirliğindedir. Aynı kelimeyi farklı koşullarda ölçerseniz "sıralama düştü" çıkarımınız yanılır. İşte sağlam bir metodolojinin altı bileşeni:
- Sabit konum: her sorgu aynı şehir/ülke için yapılmalı. Mümkünse hedef pazarınızın ana şehirleri için ayrı seri.
- Sabit cihaz: mobil ve masaüstü iki ayrı seri. Karıştırmayın; algoritma 2018'den beri mobil-first.
- Sabit dil:
hl=trher zaman; karışık dil seti veriyi bozar. - Sabit zaman pencere: her gün ±2 saat içinde aynı saat dilimi.
- Personalization off:
pws=0ya da kişiselleştirmesiz residential proxy. - Yeterli örnekleme: tek günün veriyi karar değil; en az 7 günlük hareketli ortalama.
Bu altı maddeyi karşılayan bir sistemde "Pazartesi 4'tü, Salı 8 oldu" gözleminiz gerçekten anlamlıdır. Karşılamayan sistemde aynı gözlem rastlantı olabilir.
Pozisyon Dağılımı ve İstatistik: Tek Sayıya Tapmayın
Profesyonel SEO sıralama analizinde tek bir kelime + tek bir gün veriden uzak durulur. Yerine: 50-500 kelimelik bir cluster takip edilir, ortalama pozisyon ve dağılım (medyan, p25, p75) raporlanır, görünürlük yüzdesi (top-3, top-10, top-30 oranları) ana KPI olur.
Bu yapı tek kelimelik panik yerine portföy yaklaşımı sunar. "Bu hafta toplam görünürlük top-10'da %23'ten %26'ya çıktı" cümlesi, "X kelimesinde 3'ten 4'e düştük" cümlesinden 100 kat daha eyleme dönüşebilir bir veridir. SEO ekiplerinde bu metriğin adı genelde SoV (Share of Voice) ya da visibility index olur; rakiplerinizle aynı kelime sepetinde karşılaştırma yapmanın en sağlam yoludur. Tek tek kelimeler dalgalanır, sepet ortalaması daha az dalgalanır — istatistik 101 kuralı: örneklem büyüdükçe varyans azalır.
Mobil ve Masaüstü Sıralama Farkı
Google 2019'da mobile-first indexing tam olarak yürürlüğe girdi; 2024'te masaüstü ayrı index'i resmen kapattı. Buna rağmen mobil ve masaüstü SERP'ler hâlâ farklı görünür. Mobil SERP'te yerel paket daha agresif, AMP/Schema daha belirleyici, AI Overview daha fazla yer kaplar.
Pratik sonuç: aynı kelime için mobil pozisyonunuz 5, masaüstü pozisyonunuz 9 olabilir. Eğer ürün B2C/yerel ise mobil rakam karar verici; B2B/teknik ise masaüstü daha açıklayıcı. Core Web Vitals 2026 rehberinde detaylandırdığımız INP ve LCP optimizasyonu özellikle mobil sıralamada kritik etkilidir. Mobil hassasiyet o kadar yüksektir ki, hero görseli AVIF'e çevirmek bile tek başına LCP'yi 800-1500ms düşürebilir; bu da bazı kelimelerde iki-üç sıralık doğrudan kazanç anlamına gelir. Aynı yatırımın masaüstünde etkisi neredeyse görülmez — masaüstü kullanıcısı zaten fiber bağlantı arkasında hızlı yüklüyor.
Coğrafi (Geo) Bias ve Yerel Sıralama
Google sonuçları lokasyona aşırı duyarlıdır. "avukat" araması İstanbul'da Beyoğlu'ndan yapıldığında ile Konya'dan yapıldığında tamamen farklı yerel paket gösterir. Sıra bulucu, hangi konum için sorgu attığını net bilmelidir.
Profesyonel araçlar Google'ın uule parametresini kullanarak şehir/ilçe seviyesinde simülasyon yapar. Sıra bulucu seçerken "Türkiye" tek seçenekse yetersizdir; "İstanbul / Ankara / İzmir / Bursa / Antalya" granülerliği lazım. Yerel SEO odaklı işler için daha aşağı (ilçe) gerekebilir; bunun için Yerel SEO rehberimize bakın.
AI Overview ve Featured Snippet'ın Sıralamaya Etkisi
2024-2026 arasında Google'ın SERP yüzü AI Overview (AIO) ile dramatik değişti. Bazı sorgularda AIO ekranın %40-60'ını kaplar; klasik 10 mavi link ekranın altına itilir. Bu durum "3. sıradayım ama tıklama düştü" şikayetinin temel sebebidir.
Buna rağmen AIO'da kaynak olarak gösterilmek (cited) yeni bir KPI haline geldi. Sıra bulucunuz "AI Overview'da görünüyor mu, görünüyorsa hangi sırada?" bilgisini izlemelidir. Featured snippet (öne çıkan parçacık) için aynı şey: snippet'ı aldığınızda pozisyonunuz teknik olarak "0" sayılır ama tıklama oranı 5x artar. AIO daha karmaşık: tıklama oranı düşer çünkü kullanıcı cevabı SERP'te alır, ama markanız "otorite" olarak görünür. Bu yüzden bazı kuruluşlar AIO citation'ı brand awareness metriği olarak ayrıca raporlar; doğrudan organik trafik metriği olarak değil. Sıra bulucunuz hem klasik organic position'ı hem AIO presence'ı paralel kayıt etmelidir.
- Featured snippet kazanma: kısa, doğrudan cevap (40-60 kelime) + soruyu başlık olarak kullanan yapı. Yapısal liste/tablo formatı tercih edilir.
- AI Overview citation: yüksek otorite + güncellik + structured data. Schema.org'un FAQPage, HowTo, Article tipleri sıkça çekilir.
- People Also Ask: PAA'da yer almak organik sırayla beraber gelir; soru-cevap formatlı H2 başlıklar destekler.
- Image Pack / Video: alt-text, dosya adı, schema VideoObject — görsel sıra ayrı bir savaş alanı.
- Top Stories: News sitemap + Schema NewsArticle ile haber siteleri için ekstra görünüm.
Anahtar Kelime Seçimi: Hangi Kelimeleri Takip Etmeli?
"Sıra bulucu" ile her şeyi takip etmek şart değil. İyi bir takip listesi 100-500 kelimelik dengeli bir kümedir: marka kelimeleri (brand defense), kategori kelimeleri (yüksek hacim, yüksek rekabet), uzun kuyruk (long-tail; düşük hacim, yüksek dönüşüm), rakip ad/ürün kelimeleri (mukayese sayfaları).
Anahtar kelime araştırmasında Google Keyword Planner, Ahrefs, Semrush, Mangools, Ubersuggest, AnswerThePublic ve Google Search Console'un "Performance" raporu temel kaynaklardır. Teknik SEO kontrol listesi 2026 yazımızda anahtar kelime mimarisini ve içerik kümelemesini ayrıntılı anlattık. Bir başka pratik kaynak: GSC'nin "Queries" raporunda 100'üncü pozisyon yakınında olan kelimeler. Bunlar zaten sayfanızla ilişkili olarak Google tarafından eşleştirilmiş demektir; küçük içerik dokunuşu (başlık güncellemesi, FAQ ekleme, schema iyileştirmesi) ile sayfa 1'e taşınabilir. Bu "low-hanging fruit" yaklaşımı, sıfırdan yeni kelime hedeflemeye göre 5-10 kat daha hızlı sonuç verir.
- Volume: aylık arama hacmi. 0-100, 100-1k, 1k-10k aralıkları farklı yatırım gerektirir.
- Keyword difficulty (KD): 0-100 skala. KD < 30 yeni siteler için, KD 30-60 orta yaşta siteler için, KD 60+ otorite siteler için.
- Search intent: informational, navigational, commercial, transactional. İçerik tipi ve sayfa formatı niyete göre değişir.
- Trend: Google Trends'te 5 yıllık eğrisi düz mü, çıkıyor mu, sezonsal mı?
- SERP feature presence: hedef kelimede AI Overview, snippet, video pack varsa stratejinizi ona göre ayarlayın.
Sıralama Düşüşünün Yedi Yaygın Sebebi
"Google sıralama düştü" alarmı geldiğinde önce panik yapmadan sebep ağacını gezin. Sıralama düşüşünün ana sebepleri sayıca azdır:
- Algoritma güncellemesi: Google yılda 4-6 "core update", aylık çok sayıda küçük güncelleme yayar. Google Search Status Dashboard'tan takip edin.
- Teknik SEO regresyonu: yeni deploy ile robots.txt veya noindex meta yanlışlıkla gelmiş olabilir. Sitemap ve canonical kontrol şart.
- İçerik kalite düşüşü: içerik silindi, kısaltıldı veya AI üretim ile dolduruldu. E-E-A-T sinyalleri zayıflar.
- Backlink kaybı: önemli bir referansın kaynak sayfası kaldırıldıysa veya nofollow yapıldıysa otorite düşer.
- Sayfa hızı: LCP > 4s veya INP > 500ms'a çıktıysa Core Web Vitals değerlendirmeniz çakar.
- Manuel ceza: GSC > Manual Actions sekmesinde uyarı varsa link spam, cloaking, thin content gibi sebepler vardır.
- Rakip iyileşmesi: siz aynı kalsanız bile rakip içerik genişletti, schema ekledi, hız iyileştirdi — göreli düştünüz.
Search Console ve Sıra Bulucu Karşılaştırması
Sık sorulan soru: "Search Console varken sıra bulucuya neden ihtiyacım var?" Cevap, ikisinin tamamen farklı şeyler ölçtüğüdür.
- GSC kendi sitenizin gerçek kullanıcılarının gördüğü ortalama pozisyonu verir. Sıra bulucu spesifik bir konum/cihaz/zaman için anlık pozisyonu verir.
- GSC sadece sizin verinizdir; rakip yok. Sıra bulucu rakipleri de izler.
- GSC 16 ay tutar; sıra bulucu yıllarca tutabilir.
- GSC impressions/clicks/CTR ile gelir; sıra bulucuda bu yoktur (kestirim).
- GSC ücretsiz; sıra bulucu ücretli (kayda değer hacimler için).
Pratik çıkarım: ikisini birlikte kullanın. GSC'yi temel doğruluk kaynağı olarak, sıra bulucuyu rakip izleme + günlük detay olarak.
Sıralama Takibinin Operasyonel Tarafı
Google sıra takip bir defalık iş değil — günlük/haftalık disiplindir. Sürdürülebilir bir takip sürecinin yapı taşları:
Eşik tabanlı uyarı ("5 sıra ya da daha fazla düştüyse Slack'e at") size zamanında müdahale şansı verir; aksi halde haftalar sonra fark edersiniz. Prometheus ve Grafana ile sunucu izleme rehberinde anlattığımız Prometheus + Alertmanager kombinasyonu rank metriklerine de uygulanabilir. Eşik değeri için tek bir günün veriyi yetmez — false positive üretir; en az 3 günlük rolling window'da düşüş kalıcıysa uyarı tetiklenmeli. Aksi halde Slack kanalınız gürültüye boğulur ve ekip uyarıları görmezden gelmeye başlar (alert fatigue). İyi bir uyarı sistemi az ama yüksek sinyal değerli mesajlar üretir.
Verinin Görselleştirilmesi: Trend Grafikleri
Sayılar tek başına anlam üretmez; görselleştirme şart. Tipik raporda dört grafik vardır: tek kelime için günlük pozisyon eğrisi, top-10/30/100 günlük yüzde dağılımı, kelime kategorisine göre ortalama pozisyon (brand vs category vs longtail), rakip karşılaştırması (siz vs en yakın 3 rakip).
Grafana, Looker Studio (eski Data Studio), Metabase ücretsiz/ucuz seçenekler. Excel ve Google Sheets de küçük listeler için iş görür. Profesyonel SEO platformları (Semrush, Ahrefs, Sistrix) bunu hazır verir.
Sıra Bulucu Sonuçları Yanlış Çıkarsa: 7 Olası Sebep
- Kişiselleştirme aktif: araç gizli mod kullanmıyorsa Google geçmiş profille farklı sıra gösterir.
- Konum yanlış: araç "Türkiye" diyor ama proxy'si Almanya'da; sonuç bambaşka.
- Subdomain/subpath ayrımı:
blog.ornek.comileornek.com/blogfarklı domainler. Aracınız hangisini kabul ediyor? - Cache: araç Google'a yeni sorgu atmamış, eski cache'lenmiş cevabı gösteriyor.
- SERP feature dahil/hariç farkı: organic position vs absolute position farkı 5-10 sıraya çıkabilir.
- Algoritma tazeliği: 2 saat önce update düştü, GSC ortalaması henüz değişmedi, sıra bulucu anlık veri gösteriyor.
- Bot tespiti: Google CAPTCHA'ya düşürdü, araç hata yutup eski veriyi gösterdi.
Performans Sıralamayı Nasıl Etkiler?
Core Web Vitals 2021'den beri sıralama sinyalidir. LCP < 2.5s, INP < 200ms, CLS < 0.1 hedeflenmeli. Bu üçü kötüyse hiçbir backlink seansı sizi yukarı çıkaramaz. Site optimizasyonu nasıl yapılır rehberinde frontend, backend, veritabanı ve CDN katmanlarını uçtan uca anlattık.
Pratik öncelik: görseli WebP/AVIF'e dönüştür, brotli aç, HTTP/3 etkinleştir, render-blocking JS/CSS'i kır, font preload + WOFF2 + subset uygula. Bu beş madde Lighthouse skorunu çoğu sitede 35-50'den 90+'a taşır. Ama dikkat: Lighthouse lab data'sıdır, gerçek kullanıcı (CrUX, RUM) verisi farklı çıkabilir. Google sıralama sinyali olarak field data'yı kullanır; lab skorunuz 99 olsa bile RUM'unuz kötüyse Google'a göre yavaşsınız. Bu yüzden hem Lighthouse CI hem Sentry/Datadog RUM kurmak şart. Düşük güçlü Android cihazlarda 3G hızında nasıl yüklediğinizi görmediyseniz performans optimizasyonunuz eksiktir.
İçerik Tarafı: Sıralama İçin İçerik Mimarisi
Sıra bulucu size verinin nerede olduğunu söyler; sıralamayı kazandıran ise içerik mimarisidir. Pillar + cluster yaklaşımı bugünün standardıdır: bir geniş ana yazı (pillar) + 10-30 alt konu (cluster) iç linklerle birbirine bağlanır. Google Hummingbird ve BERT bu yapıyı semantik olarak çok iyi tanır.
- E-E-A-T sinyalleri: yazar bio, kaynak referansları, güncel tarih, hata düzeltme transparansı.
- Search intent uyumu: informational kelimeye e-ticaret kategori sayfası servis etmeyin.
- Schema markup: Article, FAQPage, HowTo, Product, Review — sıralamayı doğrudan değil, görünürlüğü artırır.
- İç linkleme: anchor text doğal Türkçe; aynı sayfaya 50 farklı anchor değil 5-10 mantıklı varyant.
- Güncellik: özellikle teknoloji ve düzenleyici konularda yıllık revizyon — "2026" gibi tarihli güncellemeler tıklama oranını artırır.
Backlink ve Off-Page Sinyaller
Google'ın her algoritma güncellemesinde "backlink öldü" denir; her güncellemenden sonra hâlâ canlıdır. Otorite siteden gelen tek bir gerçek anchor link, 100 düşük kaliteli linkten daha değerli. Backlink profilini Ahrefs, Semrush, Majestic, Moz Link Explorer ile izleyebilirsiniz.
- Domain Authority / Domain Rating: 0-100 skala üçüncü taraf metriklerdir (Google'ın kendi sinyali değil), yine de pratik.
- Anchor diversity: %100 "sıra bulucu" anchor'lı 1000 link spam alarmıdır.
- Topical relevance: SEO sitenize yemek tarifi sitesinden gelen link bağlamsız değer üretmez.
- Toxic backlinks: spammy domainlerden gelen otomatik linkleri Disavow Tool ile reddetmeyi tartışın (Google son yıllarda "gerek yok" diyor — hâlâ tartışmalı).
Maliyet ve Bütçe: Sıra Bulucuya Ne Kadar Ayırmalı?
Sıra bulucu yatırımı projenin büyüklüğüne göre farklılaşır. Yaklaşık 2026 figürleri (sağlayıcıya göre değişir):
- Hobi / küçük blog: GSC + ücretsiz/limitli sıra bulucu yeter. Aylık 0-100 TL.
- KOBİ / kurumsal site: 100-500 kelime takip + rakip izleme. Aylık 500-3.000 TL.
- E-ticaret / haber sitesi: 1.000-10.000 kelime, çoklu lokasyon, API erişim. Aylık 5.000-25.000 TL.
- Ajans / multi-client: white-label rapor, agency tier. Aylık 25.000-150.000 TL+.
- Kendi sistemi: SerpApi/DataForSEO ile sorgu başı $0.0006-$0.005 + geliştirme/operasyon zamanı.
İlk soru "hangi araç" değil, "hangi soruları cevaplamalıyım" olmalı. Soru "top-10'da kaç kelimem var" ise GSC + Looker Studio yeterli. Soru "3 ana rakibimden 2'sini hangi kelimelerde geçtim" ise Ahrefs/Semrush gerekir.
Sık Sorulan Sorular
"Sıra bulucu sonuçları neden Google'da gördüğümden farklı?"
Çünkü Google her kullanıcıya kişiselleştirilmiş sonuç gösterir; sıra bulucu kişiselleştirmesiz, belirli bir konumdan, belirli bir cihaz profiliyle sorgu atar. "Doğru" rakam ikisi arasında değil, tutarlı referans olarak araç çıktısıdır.
"Ücretsiz sıra bulucu yeter mi?"
Tek seferlik kontrol için evet. Sürekli takip, çoklu kelime, rakip izleme, tarihsel grafik için ücretsiz sıra bulucu yetmez. GSC API ile kendi sisteminizi kurmak ücretsiz alternatif sayılır ama emek ister.
"Günde kaç kez sıra kontrol etmeliyim?"
Hassas projelerde günde bir, çoğu sitede haftada 2-3 yeter. Saatlik takip yatırım açısından gereksiz; Google sıralaması saatlik dalgalanır ama bu dalgalanmalar gürültüdür.
"Top 100'de değilim, sıra bulucu ne diyor?"
Çoğu araç "NOT IN TOP 100" veya benzer mesaj döner. Bu durumdaki kelimeler için stratejiniz: ya kelimeyi bırakın (rekabet sizin seviyenizin çok üstü), ya uzun kuyruk varyantına dönüştürün ("sıra bulucu" yerine "google sıra bulucu ücretsiz"), ya içerik kalitesini ciddi yükseltin.
"Sıralamamı kaç günde değiştirebilirim?"
On-page değişiklik: 3-21 gün arası fark eder. Backlink: 2-12 hafta. Algoritma core update: anlık (ama yön kontrolünüzde değil). Yeni sayfa: 1-6 hafta indeks + ek 2-12 hafta sıralanma.
İleri Seviye: SERP Volatility Tracking
Profesyonel SEO ekipleri kendi sitelerini değil SERP'in kendisini izler. SERP volatility (Mozcast, Semrush Sensor, RankRanger Risk Index, Algoroo) Google sonuçlarının ne kadar dalgalandığını gösterir; ani volatilite genellikle açıklanmamış bir core update'e işarettir.
Bu sinyalleri takip etmek size "benim sitemde mi sorun var, yoksa Google'da mı?" ayrımını yaptırır. Eğer mozcast 90+'a fırladıysa ve sizin de pozisyonunuz sallandıysa: Google. Mozcast normalken siz dalgalandıysanız: kendi sitenizde sorun.
Hukuki Durum: Tarafsız Sıralama Verisi Şirket İçi Karar İçin Kabul Edilir mi?
Türkiye'de KVKK, AB'de GDPR kapsamında sıralama verisi kişisel veri sayılmaz (anonim sorgulardır). Yine de iç raporlamada "kaynak: SerpApi, 2026-04-15, location=tr-istanbul, device=desktop" gibi metodoloji belgesi saklamak iyi pratik. Bağımsız ajanslarla çalışıyorsanız raporda bu meta-bilgiyi mutlaka talep edin.
Mini Checklist: Bugün Yapacaklarınız
- 1. Search Console'u sc-domain property olarak doğrulayın (eğer yapmadıysanız).
- 2. Top 50 hedef kelimenizi bir CSV'ye yazın (kategori etiketiyle: brand/category/longtail).
- 3. Bir SERP API hesabı açın (SerpApi, DataForSEO veya yerel sağlayıcı) ya da GSC API ile kendi cron'unuzu kurun.
- 4. Postgres/SQLite tablosu açın, günlük snapshot yazın.
- 5. Looker Studio veya Grafana ile basit görselleştirme kurun.
- 6. Eşik bazlı Slack/email uyarısı tanımlayın (5 sıra düşüş = bildirim).
- 7. Haftalık 30 dakikalık "rank review" toplantısı koyun — pazartesi sabahları.
Kaynaklar
- Google Search Console API — searchanalytics/query
- Google Search Central — SEO Starter Guide
- web.dev — Core Web Vitals
- Google Search Status Dashboard
- Mozcast SERP Volatility
- SerpApi Documentation
- DataForSEO SERP API Docs
- Google Terms of Service
- Schema.org
- Google Search Console Help
İlgili Yazılar
- Arama Motoru Nedir, Nasıl Çalışır — SEO Rehberi
- Teknik SEO Kontrol Listesi 2026
- Sayfa Hızı ve Core Web Vitals 2026
- Site Optimizasyonu Nasıl Yapılır
- WordPress SEO Plugin Önerileri
- Yerel SEO Rehberi
- E-ticaret SEO Rehberi
- Dijital Pazarlama Nedir
Anahtar kelime kümelerinizi, GSC API entegrasyonunu, rakip izleme ve eşik bazlı uyarıları içeren uçtan uca SEO sıralama altyapısı kurulumu için iletişime geçin