Algoritma Google terbaru akan menghukum
blog (
website) yang punya
content tidak berkualitas, miskin dalam jumlah post, blog yang sedemikian minimalis (lebih banyak
content gambar daripada content teks
) dan situs yang memberi para user
web blog content terbatas atau bahkan menyodorkan
duplikasi content. Meski dalam beberapa kasus duplikasi diperlukan untuk penguatan content atau support lain.
Masalahnya robot crawler search engine tidak memberi toleransi terhadap duplikasi content. Posting blog kali ini saya bermaksud memberi beberapa tips teknis dan praktek terbaik yang dapat membantu memerangi setiap kasus duplikasi konten di website.
Singkatnya, cara terbaik menangani duplikasi content ialah menghapus duplikasi isi website (atau tidak menciptakan suplikasi content). Meski kadangkala beberapa content perlu dilakukan duplikasi untuk kepentingan user. Jika seperti itu keadaannya, maka tips di bawah ini dapat membantu mencegah search engine memilih content duplikasi dan menghukum website.
Robots disallow - website archives
Instruksi dalam file
robots.txt harus digunakan ekstra hati-hati!! Karena jika penerapan robots.txt salah (seperti penggunaan “Disallow” dengan tidak benar) akan berakibat seluruh situs atau bagian tertentu situs HILANG dari halaman hasil pencarian search engine karena
dihapus dari indeks.
Yang perlu dilakukan adalah mengidentifikasi halaman yang merupakan duplikasi dari halaman lain dan menerapkan “Disallow.”
Seperti kasus berikut :
Page
www.mysite.com/home/ berisi content yang identik dengan
www.mysite.com/ dan juga sebagai copy dari page
URL tersebut. Apa yang bisa dilakukan adalah :
untuk memberitahu search engine agar tidak mengindeks apa saja,
termasuk
dan
setelah
/ home /
Pastikan bahwa tidak ada halaman-halaman Anda inginkan diindeks adalah seperti berikut, '/ home /' sama seperti '/ home / penting-barang /' sebagai content yang juga akan dihapus dari indeks.
Penerapan Disallow pada file robots.txt - arsip website
Praktek penempatan disallow pada
file robots.txt untuk pelarangan tersebut seperti dibawah ini :
Untuk mengenal lebih jauh
file robots.txt, kunjungi posting bagus
disini.