Error Index Coverage Status Report: Cakupan Indeks
Cara Memperbaiki & Mengatasi Error Cakupan Indeks Google Webmaster Tools, Index Coverage Status Report
Lagi blogwalking ke lembaga IAPD, ketemu thread yang dibikin oleh om Nino Artikel.
Sampean mempertanyakan dilema perihal error di New Search Console: New Search Console Beta Experience terkait dilema Cakupan Indeks.
Sampen mengaku mendapat email dari Google Search Console, dengan suara kurang lebih menyerupai ini:
Yth. pemilik https:/domain.blogspot.com/,
Search Console telah mengidentifikasi bahwa situs Anda terpengaruh oleh 1 dilema gres terkait Cakupan indeks. Artinya, Cakupan indeks sanggup terkena dampak negatif di hasil Google Penelusuran. Sebaiknya Anda meninjau dan mempertimbangkan untuk memperbaiki dilema ini.
Masalah gres ditemukan:
Diindeks, meski diblokir oleh robots.txt
Bagaimana dengan saya? Wah, parah ternyata. 18 valid diperingatkan, 24 valid dan 288 dikecualikan.
Terus, apakah saya panik? Tidak, dong. Mengapa? Sebab boleh diabaikan sebab "Diindeks, meski diblokir oleh robots.txt", apalagi New Search Console ini masih dalam Beta.
Jadi, sebab Search Console versi terbaru ini masih Beta, masih agak-agak gimana gitu.
Cukup dengan menghilangkan kata "Search" dibagian pengaturan robot.txt (baik di edit atau ditambahkan).
Awalnya menyerupai ini Disallow: /search, kemudian kita ganti dengan Disallow: /.
Pada hakikatnya, dilema di atas tidak mempengaruhi apapun termasuk ranking blog kita. Saya sudah blogwalking, sudah ketemu jawabannya.
Hanya saja, dilema itu tergolong gres dan itu menciptakan kita panik sendiri. Awalnya juga saya panik kok.
Nazrina, salah satu anggota terbaik di Forum Google Produk mengatakan:
Robots.txt situsmu tidak ada masalah. Itu ialah robots.txt default dari Blogger.
Yang diblokir dari perayapan ialah halaman hasil pencarian (/search) di situsmu, yang mana itu memang sebaiknya tidak perlu dirayapi.
Jadi tidak ada yang perlu dikhawatirkan. Data di Search Console di atas sifatnya hanya laporan saja.
Dan meski diblokir dari perayapan, URL-URL tersebut memang sanggup saja diindeks. Tapi tetap saja, itu bukan masalah.
Peringatan itu berkaitan dengan halaman /search diblokir oleh file robots.txt, yaitu pada kalimat:
Disallow: /search
Dan begitu diblokir dari perayapan, googlebot tidak akan sanggup melihat tag meta "index"-nya. Tapi memang meski diblokir di robots.txt, URL tersebut sanggup saja diindeks. Tapi tetap saja, hal ini bukan dilema yang perlu diperbaiki.
Yang penting adalah, abaikan saja.
Laporan di Search Console tersebut di atas hanya memberitahu URL-URL mana yang diblokir dari perayapan biar pemilik situs sanggup mengecek bahwa yang diblokir itu apa memang sengaja diblokir atau tidak.
Kalau ingin tahu perihal ini lebih lanjut, Anda sanggup masuk ke laman ini: Index Coverage status Report.
Lagi blogwalking ke lembaga IAPD, ketemu thread yang dibikin oleh om Nino Artikel.
Sampean mempertanyakan dilema perihal error di New Search Console: New Search Console Beta Experience terkait dilema Cakupan Indeks.
Sampen mengaku mendapat email dari Google Search Console, dengan suara kurang lebih menyerupai ini:
Yth. pemilik https:/domain.blogspot.com/,
Search Console telah mengidentifikasi bahwa situs Anda terpengaruh oleh 1 dilema gres terkait Cakupan indeks. Artinya, Cakupan indeks sanggup terkena dampak negatif di hasil Google Penelusuran. Sebaiknya Anda meninjau dan mempertimbangkan untuk memperbaiki dilema ini.
Masalah gres ditemukan:
Diindeks, meski diblokir oleh robots.txt
Bagaimana dengan saya? Wah, parah ternyata. 18 valid diperingatkan, 24 valid dan 288 dikecualikan.
Jadi, sebab Search Console versi terbaru ini masih Beta, masih agak-agak gimana gitu.
Cara Mengatasi Error Index Coverage Status Report: Cakupan Indeks
Cukup dengan menghilangkan kata "Search" dibagian pengaturan robot.txt (baik di edit atau ditambahkan).
Awalnya menyerupai ini Disallow: /search, kemudian kita ganti dengan Disallow: /.
Pada hakikatnya, dilema di atas tidak mempengaruhi apapun termasuk ranking blog kita. Saya sudah blogwalking, sudah ketemu jawabannya.
Hanya saja, dilema itu tergolong gres dan itu menciptakan kita panik sendiri. Awalnya juga saya panik kok.
Nazrina, salah satu anggota terbaik di Forum Google Produk mengatakan:
Robots.txt situsmu tidak ada masalah. Itu ialah robots.txt default dari Blogger.
Yang diblokir dari perayapan ialah halaman hasil pencarian (/search) di situsmu, yang mana itu memang sebaiknya tidak perlu dirayapi.
Jadi tidak ada yang perlu dikhawatirkan. Data di Search Console di atas sifatnya hanya laporan saja.
Dan meski diblokir dari perayapan, URL-URL tersebut memang sanggup saja diindeks. Tapi tetap saja, itu bukan masalah.
Peringatan itu berkaitan dengan halaman /search diblokir oleh file robots.txt, yaitu pada kalimat:
Disallow: /search
Dan begitu diblokir dari perayapan, googlebot tidak akan sanggup melihat tag meta "index"-nya. Tapi memang meski diblokir di robots.txt, URL tersebut sanggup saja diindeks. Tapi tetap saja, hal ini bukan dilema yang perlu diperbaiki.
Yang penting adalah, abaikan saja.
Laporan di Search Console tersebut di atas hanya memberitahu URL-URL mana yang diblokir dari perayapan biar pemilik situs sanggup mengecek bahwa yang diblokir itu apa memang sengaja diblokir atau tidak.
Kalau ingin tahu perihal ini lebih lanjut, Anda sanggup masuk ke laman ini: Index Coverage status Report.