Author by Yosef Doublehorn
Author by : Doublehorn
DAFTAR ISI
Protected by Copyscape Online Infringement Detector

30 Juni 2013

Tip SEO : Hindari pinalti duplikasi content website blog


Lakukan identifikasi halaman situs blog yang merupakan duplikat content dari halaman lain akibat di luar control Anda dan terapkan disallow pada setting file robots.txt

Algoritma Google terbaru akan menghukum blog (website) yang punya content tidak berkualitas, miskin dalam jumlah post, blog yang sedemikian minimalis (lebih banyak content gambar daripada content teks) dan situs yang memberi para user web blog content terbatas atau bahkan menyodorkan duplikasi content. Meski dalam beberapa kasus duplikasi diperlukan untuk penguatan content atau support lain.

Masalahnya robot crawler search engine tidak memberi toleransi terhadap duplikasi content.  Posting blog kali ini saya bermaksud memberi beberapa tips teknis dan praktek terbaik yang dapat membantu memerangi setiap kasus duplikasi konten di website.

Singkatnya, cara terbaik menangani duplikasi content ialah menghapus duplikasi isi website (atau tidak menciptakan suplikasi content). Meski kadangkala beberapa content perlu dilakukan duplikasi untuk kepentingan user. Jika seperti itu keadaannya, maka tips di bawah ini dapat membantu mencegah search engine memilih content duplikasi dan menghukum website.

Robots disallow - website archives

Instruksi dalam file robots.txt harus digunakan ekstra hati-hati!! Karena jika penerapan robots.txt salah (seperti penggunaan “Disallow” dengan tidak benar) akan berakibat seluruh situs atau bagian tertentu situs HILANG dari halaman hasil pencarian search engine karena dihapus dari indeks.

Yang perlu dilakukan adalah mengidentifikasi halaman yang merupakan duplikasi dari halaman lain dan menerapkan “Disallow.

Seperti kasus berikut :
Page www.mysite.com/home/ berisi content yang identik dengan www.mysite.com/ dan juga sebagai copy dari page URL tersebut. Apa yang bisa dilakukan adalah :

menambahkan disallow pada file robots.txt.

untuk memberitahu search engine agar tidak mengindeks apa saja, termasuk dan setelah

/ home /

Pastikan bahwa tidak ada halaman-halaman Anda inginkan diindeks adalah seperti berikut,  '/ home /' sama seperti '/ home / penting-barang /' sebagai content yang juga akan dihapus dari indeks.

Penerapan Disallow pada file robots.txt - arsip website

Praktek penempatan disallow pada file robots.txt untuk pelarangan tersebut seperti dibawah ini :

Robots-txt-disallow home

Untuk mengenal lebih jauh file robots.txt, kunjungi posting bagus disini.



That's all we know - Happy blog blogger



Comments

0 komentar:

Posting Komentar di Website Design

-

Penelusuran topik khusus di blog ini
Loading