Indeks Website baru – Berapa lama waktu yang dibutuhkan Google untuk mengindeks halaman baru situs web? Berapa lama waktu yang dibutuhkan Google untuk mengindeks? Bosan menunggu Google mengindeks konten baru Anda? Bantu dengan memastikan halaman Anda tidak mendapatkan kesalahan untuk dirayapi.
Pengindeksan adalah proses mengunduh informasi dari situs web Anda, mengklasifikasikannya, dan menyimpannya dalam database. Basis data ini – indeks Google adalah sumber dari semua informasi yang dapat Anda temukan melalui Google Penelusuran.
Halaman yang tidak termasuk dalam indeks mungkin tidak muncul di hasil pencarian, tidak peduli seberapa cocok dan cocok dengan kueri pencarian. Katakanlah Anda baru saja menambahkan halaman baru ke blog Anda. Dalam posting baru, Anda membahas topik yang sedang tren, yang diharapkan akan memberi Anda banyak lalu lintas baru.
Namun sebelum Anda dapat melihat bagaimana kinerja halaman tersebut di Google Penelusuran, Anda harus menunggu hingga halaman tersebut diindeks.
Jadi berapa lama tepatnya proses Indeks Website Baru berlangsung? Dan kapan Anda harus mulai khawatir bahwa kurangnya pengindeksan dapat menandakan masalah teknis di situs web Anda?
Berapa lama waktu yang dibutuhkan untuk Indeks Website baru
Prediksi dari para ahli
Indeks Google berisi ratusan miliar halaman web dan menghabiskan lebih dari 100 juta gigabyte memori. Selain itu, Google tidak membatasi jumlah halaman di situs web yang dapat diindeks. Meskipun beberapa halaman mungkin diprioritaskan dalam antrian pengindeksan, halaman biasanya tidak harus bersaing untuk diindeks.
Jadi, apakah masih ada ruang untuk halaman kecil lainnya di database besar ini? Anda tidak perlu khawatir tentang entri blog Anda? Sayangnya, Anda mungkin harus memengaruhinya.
Google mengakui bahwa tidak setiap halaman yang diproses oleh perayapnya akan diindeks.
Pada Januari 2021, John Mueller – Google Search Advocate, menguraikan topik ini, mengungkapkan bahwa cukup normal bagi Google untuk tidak mengindeks semua halaman situs web besar.
Tantangan bagi Google, jelasnya, adalah mencoba untuk menyeimbangkan antara keinginan untuk mengindeks konten sebanyak mungkin dengan memperkirakan apakah itu akan berguna bagi pengguna mesin pencari.
Oleh karena itu, dalam banyak kasus, tidak mengindeks konten tertentu merupakan pilihan strategis dari pihak Google.
Google tidak ingin pengindeksannya menyertakan halaman berkualitas rendah, konten duplikat, atau halaman yang tidak ditelusuri oleh pengguna. Cara terbaik untuk menjauhkan halaman spam dari hasil pencarian adalah dengan tidak mengindeksnya.
Apakah dijamin waktu halaman akan diindeks?
Seperti yang mungkin sudah Anda duga dari judul artikel ini, tidak ada jawaban pasti untuk pertanyaan pengindeksan ini.
Anda tidak akan dapat mengatur sendiri pengingat kalender pada tanggal posting blog Anda akan diindeks.
Tetapi banyak orang telah mengajukan pertanyaan serupa sebelumnya, berharap Google dan pakar SEO berpengalaman memberikan beberapa petunjuk.
John Mueller mengatakan butuh berjam-jam hingga berminggu-minggu bagi Google untuk mengindeks sebuah halaman. Dia pikir sebagian besar konten bagus diambil dan diindeks dalam waktu sekitar seminggu.
Beberapa halaman harus menunggu hingga delapan minggu untuk diindeks. Tentu saja, ini hanya berlaku untuk halaman yang akhirnya diindeks.
baca juga ; teknik long tail keyword
Kebutuhan pengumpulan informasi dan anggaran pengumpulan
Agar halaman baru di blog Anda dapat ditemukan dan diindeks, Googlebot harus merayapi ulang blog tersebut.
Seberapa sering Googlebot merayapi ulang situs web Anda pasti mempengaruhi seberapa cepat halaman baru Anda akan diindeks, dan itu tergantung pada sifat konten dan seberapa sering diperbarui.
Situs web berita yang menerbitkan konten baru secara teratur perlu dirayapi ulang secara teratur. Dapat dikatakan bahwa mereka adalah situs web dengan permintaan perayapan tinggi.
Contoh situs web dengan permintaan perayapan rendah adalah situs web tentang sejarah pandai besi, karena kontennya tidak diperbarui secara berkala.
Google secara otomatis menentukan apakah situs web memiliki permintaan perayapan rendah atau tinggi. Selama perayapan awal, ia memeriksa konten situs web dan kapan terakhir diperbarui.
Keputusan untuk merayapi situs web kurang lebih sering tidak ada hubungannya dengan kualitas konten – faktor penentunya adalah perkiraan frekuensi pembaruan.
Faktor terpenting kedua adalah kecepatan pengumpulan data. Itulah jumlah permintaan yang dapat dibuat Googlebot tanpa membebani server Anda.
Jika Anda meng-host blog Anda di server bandwidth rendah dan Googlebot memperhatikan bahwa server melambat, itu akan menyesuaikan dan mengurangi tingkat perayapan.
Di sisi lain, jika situs web responsif, batasnya naik dan Googlebot dapat merayapi lebih banyak URL.
Persiapan apa yang diperlukan sebelum halaman Anda diindeks?
Karena pengindeksan membutuhkan waktu, orang mungkin juga bertanya-tanya – bagaimana tepatnya waktu itu dihabiskan?
Bagaimana informasi dari situs web Anda diklasifikasikan dan dimasukkan dalam indeks Google?
Mari kita bahas peristiwa yang harus terjadi sebelum pengindeksan.
Jelajahi konten
Mari kembali ke contoh di mana Anda memposting posting blog baru. Googlebot perlu menemukan URL halaman ini pada langkah pertama proses pengindeksan.
Itu bisa terjadi dengan:
- Ikuti tautan internal yang Anda berikan di halaman lain situs web Anda.
- Ikuti tautan eksternal yang dibuat oleh orang-orang yang menganggap konten baru Anda bermanfaat.
- Lihat Peta Situs XML yang telah Anda unggah ke Google Search Console.
- Fakta bahwa halaman itu ditemukan berarti bahwa Google tahu tentang keberadaan dan URL-nya.
Mengumpulkan informasi – Indeks Website Baru
Perayapan adalah proses mengakses URL dan mengambil konten halaman.
Saat merangkak, Googlebot mengumpulkan informasi tentang topik utama halaman tertentu, file apa yang ada di halaman ini, kata kunci apa yang muncul di halaman tersebut, dan seterusnya.
Setelah menemukan link pada satu halaman, crawler akan mengikutinya ke halaman berikutnya dan proses berlanjut.
Penting untuk diingat bahwa Googlebot mengikuti aturan yang ditetapkan oleh robots.txt untuk tidak merayapi laman yang diblokir oleh perintah yang Anda berikan dalam file tersebut.
Rendering
Rendering perlu dilakukan agar Googlebot memahami konten JavaScript dan file gambar, audio, dan video.
Jenis file ini selalu menjadi perjuangan yang lebih besar bagi Google daripada HTML.
Martin Splitt, advokat pengembang Google, membandingkan rendering dengan memasak hidangan.
Dalam metafora ini, file HTML awal situs web dengan tautan ke konten lain adalah formula. Anda dapat menekan F12 pada keyboard Anda untuk melihatnya di browser.
Semua sumber daya web, seperti CSS, file JavaScript, gambar, dan video, merupakan komponen yang diperlukan untuk memberikan tampilan akhir pada web.
Saat situs web mencapai status ini, Anda sedang memproses HTML yang dirender, umumnya dikenal sebagai Model Objek Dokumen.
Martin juga mengatakan bahwa eksekusi JavaScript adalah tahap pertama rendering karena JavaScript bekerja seperti resep di dalam resep.
Di masa lalu, Googlebot digunakan untuk mengindeks versi HTML awal halaman dan membiarkan JavaScript dirender terlambat karena sifat prosesnya yang memakan waktu dan mahal.
Industri SEO menyebut fenomena itu “dua gelombang pengindeksan”.
Namun, kini sepertinya dua gelombang sudah tidak diperlukan lagi.
Mueller dan Splitt mengakui bahwa, saat ini, hampir setiap situs web baru melewati fase rendering secara default.
Salah satu tujuan Google adalah merayapi, menampilkan, dan mengindeks lebih dekat.
Bisakah Anda mengindeks halaman Anda lebih cepat?
Anda tidak dapat memaksa Google untuk mengindeks halaman baru Anda.
Seberapa cepat ini terjadi di luar kendali Anda. Namun, Anda dapat mengoptimalkan halaman Anda untuk membuat penemuan dan perayapan semulus mungkin.
Inilah yang perlu Anda lakukan:
- Pastikan halaman Anda dapat diindeks
- Ada dua aturan penting yang harus diikuti agar halaman Anda dapat diindeks:
- Anda harus menghindari pemblokiran mereka dengan robots.txt atau arahan noindex di meta robots.
- Anda harus menandai versi kanonik dari konten tertentu dengan tag kanonik.
- Robots.txt adalah file yang berisi instruksi robot untuk mengunjungi situs web Anda.
Anda dapat menggunakannya untuk menentukan perayap mana yang tidak diizinkan mengakses halaman atau folder tertentu. Yang harus Anda lakukan adalah menggunakan perintah disallow.
Misalnya, jika Anda tidak ingin robot mengakses halaman dan file dalam direktori berjudul “contoh”, file robots.txt Anda harus berisi perintah berikut:
Agen pengguna: *
Larang: /contoh/
Terkadang mungkin untuk memblokir Googlebot dari pengindeksan halaman yang berharga secara tidak sengaja.
Jika Anda khawatir bahwa halaman Anda tidak diindeks karena masalah teknis, Anda harus meninjau file robots.txt Anda.
Googlebot tidak akan meneruskan halaman apa pun yang diminta untuk dikecualikan dari proses pengindeksan. Salah satu cara untuk mewakili arahan semacam itu adalah dengan meletakkan arahan noindex di:
X-Robots-tag di respons header HTTP URL halaman Anda.
Tag meta robot di bagian <head> halaman Anda.
Pastikan arahan ini tidak muncul pada halaman yang perlu diindeks.
Seperti yang kami sebutkan, Google ingin menghindari pengindeksan konten duplikat. Jika menemukan dua halaman yang terlihat seperti duplikat satu sama lain, mungkin hanya akan mengindeks salah satunya.
ARTIKEL ; Indeks Website Baru
SEO Specialist, Ahli Optimasi SEO | Koi Expert, Professional Consultant, Ponds Bulder |
Credit, Banking and Finance