Kritik sorunlar
Bu bölüm, Yandex Webmaster’da site teşhisi sırasında tanımlanan “Kritik” kategorisindeki yaygın sorunlara çözümler içermektedir. Bu kategorideki sorunlar, bireysel sayfaların veya tüm sitenin arama sonuçlarından çıkarılmasına yol açabilir.
Öneri
Hataları mümkün olan en kısa sürede takip edin ve düzeltin. Web sitesi izleme sonuçları için bildirimleri yapılandırabilirsiniz.
Yavaş sunucu yanıtı
Bu mesaj, arama botu tarafından yapılan tarama sırasında ortalama sayfa yanıt süresinin 3 saniyeyi aştığı anlamına gelir. Bu, sitedeki belirli sayfalar için özellikle yavaş bir sunucu yanıtından kaynaklanabilir. Bu tür sayfaların örnekleri mesajın kendisinde görülebilir.
Uzun sunucu yanıt süresi, site dizinlemesinde gecikmelere yol açabilir. Eğer sunucu yanıtı şu anda hızlıysa, bu mesajı görmezden gelebilirsiniz. Arama botu siteyi bir sonraki taradığında bu mesaj kaybolacaktır.
Botun sayfa yeniden dizinlemesini nasıl hızlandıracağınızı öğrenmek için Bir siteyi aramaya nasıl ekleyebilirim? bölümüne bakın. Sunucu yanıt süresini Sunucu yanıt kontrolü aracı ile kontrol edebilirsiniz.
Geçersiz SSL sertifika ayarları
Bu mesaj aşağıdaki durumlarda görüntülenir:
- Sertifika süresi dolmuş.
- Sertifika, kullanıldığı farklı bir etki alanı adı veya tüm alt alan adları için verilmemiş. Örneğin, sertifika
example.com
etki alanı adı için verilmiş ancakwww.example.com
etki alanı adı için kullanılıyor. - Kullanıcıların tarayıcılarında sertifika yetkilisinden gelen sertifika eksik veya iptal edilmiş.
- Kendi imzalı bir sertifika kullanılıyor.
SSL sertifikası ile ilgili sorunlar varsa, tarayıcı kullanıcıyı bunlar hakkında bilgilendirir. Kullanıcı, güvenli olmayan bir siteyi ziyaret etmekten vazgeçebilir.
Hatanın çözülmesi için SSL sertifikasını ve sunucu ayarlarını kontrol edin. Bunu yapmak için barındırma sağlayıcınızla iletişime geçin.
Yandex robotu, siteyi bir sonraki taradığında yapılan değişiklikleri keşfedecektir. Eğer bir sorun tespit edilmezse, mesaj Yandex.Webmaster’da görünmeyi durduracaktır.
GET parametreleriyle yinelenen sayfalar bulundu
Yinelenen sayfalar, aynı içeriğe sahip ancak farklı URL’lerde bulunan sayfalardır. GET parametreleri içeren bağlantılar da yinelenmiş sayfalar olarak kabul edilebilir, çünkü Yandex robotu bunları farklı sayfalar olarak değerlendirir. Bu tür sayfalar, bir grup yinelenmiş sayfa olarak birleştirilir.
Web sitenizde yinelenen sayfalar varsa:
-
Gerekli sayfa, robotun yineleme grubu içinden başka bir sayfa seçmesi durumunda arama sonuçlarından kaybolabilir.
Ayrıca, bazı durumlarda sayfalar gruplandırılmayabilir ve aramada farklı belgeler olarak yer alabilir. Bu şekilde, birbirleriyle rekabet ederler. Bu, web sitesinin arama sonuçlarındaki sıralamasını etkileyebilir.
-
Aramada hangi sayfanın kaldığına bağlı olarak, belgenin adresi değişebilir. Bu, web analiz hizmetlerinde istatistikleri görüntülerken zorluklara neden olabilir.
-
Dizinleme robotunun web sitesinin sayfalarını taraması daha uzun sürer, bu da sizin için önemli olan sayfalar hakkındaki verilerin arama veritabanına daha yavaş gönderildiği anlamına gelir. Robot ayrıca web sitenizde ek yük oluşturabilir.
Not
Yakın zamanda Clean-param direktifleri eklediyseniz, robots.txt dosyasını kullanarak yinelenen sitelerde gezinmeyi yasakladıysanız veya rel="canonical" özniteliğini yerleştirdiyseniz, bu değişikliklerin Yandex Webmaster’daki Site teşhisi bölümünde yansıtılması ve bildirimin gösterilmesinin durdurulması birkaç gün sürebilir.
Yandex’e hangi sayfanın aramaya dahil edilmesi gerektiğini ve yinelenenlerden kurtulmayı söylemek için Clean-param direktifini robots.txt
dosyasına ekleyin; böylece bot URL parametrelerini dikkate almayacaktır.
Öneri
Clean-Param direktifi kesişimseldir, dolayısıyla dosya içinde herhangi bir yerde belirtilebilir. Yandex botu için özel olarak başka direktifler tanımlarsanız, buna dair tasarlanmış tüm kuralları tek bir bölümde listeleyin. Bu durumda, User-agent: *
dizesi göz ardı edilecektir.
Clean-param direktifi örneği
-
#for addresses like: https://example.com/page?utm_source=link&utm_medium=cpc&utm_campaign=new #robots.txt will contain: User-agent: Yandex Clean-param: utm_source&utm_medium&utm_campaign /page #thus we tell the bot that it should keep the https://example.com/page address in the search #to apply the directive to parameters on pages at any address, do not specify the address: User-agent: Yandex Clean-param: utm_source&utm_medium&utm_campaign