Tuesday, February 5, 2019

Robots.txt ແມ່ນຫຍັງ ເປັນຫຍັງເຖິງສຳຄັນກັບການເຮັດ seo?

Image does not exist: https://cdn-images-1.medium.com/max/558/0*2A5HtWIjrj-fBIGa.png
robots.txt ເປັນໄຟລ໌ທີ່ບອກໃຫ້ Search Engine ເຊັ່ນ google ,yahoo ມາເກັບຂໍ້ມູນໃນໜ້າເວັບຂອງເຮົາ ຊຶ່ງໃນທາງປະຕິບັດແລ້ວ ມັນຈະເກັບທຸກສ່ວນຂອງເວັບໄຊເຮົາ ຊຶ່ງຖ້າເຮົາບໍ່ຕ້ອງການໃຫ້ມັນຮຽກເກັບຂໍ້ມູນໃນສ່ວນໃດ ເຮົາກໍສາມາດປ້ອງກັນໄດ້ ດ້ວຍໄຟລ໌ robots.txt ນີ້ເອງ
ໂຣບອດ (Robot) ເປັນໂປຣແກຣມເກັບຂໍ້ມູນໃນອິນເຕີເນັດ ຊຶ່ງບາງເທື່ອ ຮຽກວ່າສະໄປເດີ (Spider) ຫລື ຄຣໍເລີ (Crawler) ຈະທໍາຫນ້າທີ່ລວບລວມໄຟລ໌ HTML ເພື່ອມາເປັນຂໍ້ມູນ ສໍາລັບສ້າງດັດສະນີຄົ້ນຫາ ໃຫ້ກັບ ເສິດເອັນຈິນ (Search Engine) ໂດຍທົ່ວໄປແລ້ວ ໂຣບອດຈະກັບມາທີ່ເວັບໄຊທີ່ອ່ານໄປແລ້ວ ເພື່ອກວດສອບ ການປ່ຽນແປງ ຕາມໄລຍະເວລາທີ່ກໍາໜົດ
ດັ່ງນັ້ນເຮົາຕ້ອງສ້າງໄຟລ໌ robots.txt ຂຶ້ນມາ ເພື່ອກຳນົດວ່າຈະໃຫ້ Robot ເຂົ້າໄປທີ່ໂຟນເດີໃດໄດ້
ແຕ່ຄຳຖາມຕອນນີ້ຄື ຈະສ້າງມັນໄດ້ແນວໃດ?
ວິທີການຄືໃຫ້ສ້າງໄຟລ໌ທີ່ຊື່ robots.txt ຂຶ້ນມາຈາກນັ້ນນຳມາວາງໄວ້ທີ່ Root Directory (ໄດເຣກເທີຣີ່ເລີ່ມຕົ້ນຂອງເວັບໄຊ)
ເຊັ່ນເວັບຂອງເຮົາ https://alexzblog.tk/robots.txt
ຫຼັງຈາກນັ້ນກັອບປີ້ຂໍ້ຄວາມນີ້ລົງໄປໃນໄຟລ໌ robotx.txt ເລີຍ

User-Agent: *
Allow: /
Sitemap: http://yourdomain.com/sitemap.xml 

ຊຶ່ງຂໍ້ຄວາມຂ້າງຕົ້ນນີ້ເປັນຮູບແບບພື້ນຖານໃນການສ້າງໄຟລ໌ robots.txt ທີ່ຖືກຕ້ອງ
ໂດຍ Allow: / ໝາຍຄວາມວ່າ ໃຫ້ມັນເກັບຂໍ້ມູນໄດ້ທັງໝົດ ສ່ວນ
Sitemap: http://yourdomain.com/sitemap.xml ໃຫ້ໃສ່ທີ່ຢູ່ URL ຂອງ sitemap ເຮົາ
ທີ່ນີ້ເຮົາລອງມາເບິ່ງຕົວຢ່າງນີ້ ເປັນກໍລະນີທີ່ສ້າງໄຟລ໌ robots.txt ໃຫ້ເກັບຂໍ້ມູນໃນບາງສ່ວນທີ່ເຮົາຕ້ອງການເປີດເຜີຍ

User-agent: *
Allow: /content
Disallow: /admin
Allow: /pic
Disallow: /xxx
Sitemap: http://yourdomain.com/sitemap.xml 

ຈາກຕົວຢ່າງນີ້ຈະເຫັນໄດ້ວ່າ
ຄຳສັ່ງ Allow ກໍຄືອະນຸຍາດໃຫ້ມັນເກັບໄດເຣກທໍຣີ່ທີ່ຣະບຸໄວ້ຊຶ່ງໃນຕົວຢ່າງຄື ໂພລເດີ content ແລະ pic
ສ່ວນຄຳສັ່ງ Disallow ກໍຄືຄຳສັ່ງທີ່ບໍ່ອະນຸຍາດໃຫ້ມັນເກັບໄດເຣກທໍຣີ່ທີ່ລະບຸໄວ້ຊຶ່ງໃນຕົວຢ່າງຄື admin ແລະ xxx
ເຫັນບໍ ການສ້າງໄຟລ໌ robots.txt ງ່າຍຈະຕາຍ ແຖມມີຂໍ້ດີຫຼາຍຢ່າງດ້ວຍໃນການເຮັດ SEO

src::softmelt.com

Subscribe

  • RSS Atom

ອອນລາຍ: 1 | ມື້ນີ້: 13 | ວານນີ້: 25 | ທິດນີ້: 93 | ເດືອນນີ້: 872 | ປີນີ້: 11832 | ລວມ: 78935