Mohon petunjuk dari para suhu webmaster, saya masih bingung mengenai sitemaps n robot.txt....???itu tuh sebenarnya buat apa sich ??? truz fungsinya buat apa?? truz kalo bisa mohon di describe juga mengenai jenis-jenisnya.... hatur nuhun
Menggunakan Sitemap +++++++++ Sitemap adalah peta situs yang dapat mempermudah search engine membaca setiap halaman web sehingga dapat tersimpan di dalam database search engine. Menggunakan sitemap dapat pula meningkatkan traffic karena sebagian besar pengguna internet mencari informasi yang dibutuhkan melalui search engine. Jenis sitemap yang diijinkan yaitu berekstensi: 1. xml 2. txt 3. sindication feed (biasanya utk blog). Untuk membuat sitemap berformat xml anda dapat menggunakan sitemap generator google ataupun menggunakan sitemap generator pihak ketiga.Dengan menggunakan sitemap ini anda dapat membuat sitemap sampai dengan maksimum 500 halaman. Untuk membuat sitemap anda hanya memasukkan url dari web lalu tekan start, maka sitemap anda langsung jadi dan dapat mendownloadnya. Setelah anda mempunyai file sitemap maka anda akan masuk ke google webmaster tool dan tambahkan site yang akan anda masukkan, kemudian ikuti prosedur hingga selesai. Jalan yang paling mudah agar Google sering mengunjungi web anda adalah dengan menggunakan file sitemap seperti yang dijelaskan sebelumnya, dengan file sitemap Google akan segera tahu jika terjadi perubahan terhadap halaman web.
maksud saya....robots.txt itu kaya gimana? saya masih bingung dengan allow dan disallow apa kalo allow berati om google akan meng crawl seluruh halaman atau malah sebaliknya, truz saya juga masih bingung dengan macam2 robots.txt
Robots.txt >>>>> ibaratnya seorang guide, robots.txt ini berfungsi untuk mengarahkan crawler mesin pencari pada saat ia melakukan kerjanya. Dengan robots.txt, kmu bisa menentukan file / direktori mana yg boleh diakses dan mana yg tidak boleh. kmu bahkan bisa mengatur, crawler mana yg boleh mengakses situs dan mana yg ga boleh.