Blogger templates

Home » » Cara Menggunakan Custom Robot.txt Untuk SEO Blogger

Cara Menggunakan Custom Robot.txt Untuk SEO Blogger

Written By Unknown on Rabu, 20 Maret 2013 | 09.11


Cara Menggunakan Custom Robot.txt Untuk SEO Blogger

pada kesempatan ini pembahasan dengan Custom Robots.txt yang masih merupakan bagian dari fitur Crawler and Indexing pada menu Search Preferences.

Sebelum Blogger menambahkan fitur Search Preferences, sangat tidak mungkin untuk mengatur file robots.txt seperti pada blog atau situs yang menggunakan self hosting seperti WordPress, namun saat ini Blogger sudah mulai memaksimalkan SEO OnPage untuk menyaingi kompetitornya di dunia blogging.  Salah satu fitur penting untuk mengoptimalkan SEO Blog adalah pengaturan file robots.txt yang akan diulas pada artikel ini.
Silahkan Berkunjung Tanpa Bosan:al3ridho.blogspot.com

Memahami Fungsi dan Peranan File Robots.txt dalam mengoptimalkan SEO Blogger
Sebenarnya robots.txt pada blogger hanyalah berupa virtual file yang dapat diseting melalui pengaturan secara OnPage, karena kita tidak diberikan akses ke root direktory seperti pada blog atau situs yang menggunakan self hosting.  Fungsi dari robots.txt ini adalah ibarat rambu lalulintas bagi crawler mesin pencari seperti googlebot saat sedang meng-crawl konten atau isi blog kita.   File robots.txt memungkinkan kita untuk mengontrol dan memberikan izin bagi crawler search engine, mana konten blog yang boleh di akses dan mana konten blog yang tidak boleh diakses.  Pada pengaturan file robots.txt ini hanya dikenal dua macam perintah yaitu DISALLOW untuk perintah larangan peng-indexan dan ALLOW untuk perintah mengizinkan peng-indexan.

Custom Robots.txt Untuk Optimasi SEO Blogger
Sebelum Blogger mengaktifkan fitur custom robot.txt ini pengaturan meta index (noindex dan nofollow) untuk optimasi SEO Blogger dilakukan melalui update meta tag pada dokumen HTML template, dengan adanya fitur ini sekarang pengaturannya menjadi semakin mudah, secara default robots.txt memiliki dua baris perintah seperti di bawah ini :

User-agent: *
Disallow:

Perintah pada baris pertama di atas adalah identifikasi user-agent atau crawler search engine, agregator maupun robot pengindex lainnnya seperti googlebot dan lain-lain.  Sedangkan perintah pada baris ke dua adalah perintah larangan bagi robot pengindex untuk mengindex konten blog.

Perintah di atas jika diterjemahkan :

User-agent: * = Seluruh robot peng-index dibolehkan untuk mengindex blog atau situs
Disallow: = Seluruh konten blog atau situs dari root directory sampai ke sub directory termasuk archive dan halaman statis, diperbolehkan untuk diindex.  Jika ingin melakukan pelarangan anda tinggal menambahkan karakter slash (/) pada baris kedua sehingga bentuknya akan menjadi seperti ini :

User-agent: *
Disallow: /

Perintah ini akan melarang seluruh robot peng-index dari search engine, agregator dan lain-lain untuk mengindex seluruh konten blog atau situs

Untuk melakukan pengaturan pada file robots.txt, silahkan login ke blogger dengan ID anda, selanjutnya pada halaman dashboard pilih menu Settings ->> Search Preferences ->> Crawlers and Indexing pada bagian Enable Custom robots.txt content? pilih Yes lalu klik link Edit pada bagian Custom robots.txt seperti gambar di bawah :



Secara default bloger telah menambahkan file robots.txt ini pada blog yang dibangun dengan platform blogger, cara melihatnya ketik url blog pada address bar browser dan tambahkan robots.txt.  Contohnya adalag seperti ini namabloganda.blogspot.com/robot.txt. Jika Anda telah memahami pengaturan file robots.txt ini anda dapat memodifikasinya agar SEO blog bisa menjadi lebih optimal.  Berikut ini adalah dafault baris perintah robots.txt dan penjelasannya.

User-agent: Mediapartners-Google
Disallow:

User-agent: *
Disallow: /search
Allow: /

Sitemap: http://namabloganda.blogspot.com/feeds/posts/default?orderby=updated

Baris perintah di atas jika diterjemahkan adalah sebagai berikut :

User-agent: Mediapartners-Google
Disallow:

Maksud perintah pada baris kelompok pertama ini adalah  memberikan izin kepada user-agent google adsense untuk meng-crawl seluruh konten blog agar bisa menampilkan iklan yang relevan, jika blog Anda menggunakan google adsense, tentu perintah ini penting dan jangan dihapus agar iklan yang ditampilkan relevan dan tepat sasaran.

User-agent: *
Disallow: /search
Allow: /

Untuk perintah pada kelompok baris yang kedua ini akan mengizinkan seluruh user-agent Search Engine dan Agregator termasuk Robot Autobloging untuk meng-crawl seluruh konten blog, kecuali directory yang berisi label blog karena di sana ada perintah Disallow: /search yang melarang robot search engine untuk meng-crawl directory ini, dan sebaiknya memang directory label tidak perlu diindex karena label tidak menunjukkan halaman riil.

Sitemap: http://namabloganda.blogspot.com/feeds/posts/default?orderby=updated

Perintah pada kelompok ketiga adalah perintah menambahkan sitemap yang mana pada feeds ditambah perintah orderby, berisi list dari update terbaru, perintah ini akan membantu mempercepat pengindeksan pada mesin pencari.
Silahkan Berkunjung Tanpa Bosan:al3ridho.blogspot.com

0 komentar:

Posting Komentar

Bagi Anda yang merasa blog nue bermanfaat mari likes dan jadi member :)

Channel Youtube : Kepo Media

Kepo Media. Diberdayakan oleh Blogger.

Popular Posts

About

Like dan Follow Anda Sangat Membantu Blog Ini ^_^

×

Recent Comments

Blogger news