Kaip sukurti roboto txt failą

Turinys
Kai paieškos sistemos atvyksta į svetainę, jos pradeda ieškoti failo robots.txt, kad jį perskaitytų. Tai priklausys nuo jo turinio, kad paieškos voras toliau veiktų svetainėje arba pereitų į kitą.
„Robots.txt“ faile yra puslapių, kuriuos leidžiama indeksuoti paieškos sistemai, sąrašas, o tai savo ruožtu selektyviai riboja prieigą prie tam tikrų paieškos sistemų.

Tai ASCII failas, kuris turi būti svetainės šaknyje. Joje gali būti šios komandos:
Agento vartotojas: Jis naudojamas nurodyti, kuris robotas vykdys pateiktus užsakymus.
Neleidžia: Jis naudojamas nustatyti, kurie puslapiai paieškos sistemoje bus pašalinti analizės proceso metu. Svarbu, kad kiekvienas puslapis, kurį reikia išskirti, turėtų turėti atskiras eilutes ir prasidėti simboliu /. Taikant šią simbologiją, ji patikslinama; į „visus svetainės puslapius“.
Labai svarbu, kad faile robots.txt nebūtų tuščių eilučių.
Kai kurie pavyzdžiai pateikti žemiau;
  • Kai norite išskirti visus puslapius; vartotojo agentas yra: Neleisti: /.
  • Jei tikslas nėra išskirti bet kurį puslapį, tada robotos.txt failas svetainėje neturi būti, tai yra, visi svetainės puslapiai bus aplankyti vienodai.
  • Kai neįtraukiamas konkretus robotas, tai bus:
  • Agento naudotojas: Roboto vardas Neleisti: / Agento naudotojas: * Neleisti:
  • Kai puslapis neįtraukiamas; Agento naudotojas: * Neleisti: /directory/path/page.html
  • Kai visi katalogo puslapiai bus pašalinti iš svetainės su atitinkamais poaplankais, tai bus; Agento naudotojas: * Neleisti: / directory /
Naudodami šį failą galite užkirsti kelią paieškos sistemoms pasiekti tam tikrus puslapius ar katalogus, taip pat galite užblokuoti prieigą prie failų ar tam tikrų paslaugų.
Kita funkcija - neleisti indeksuoti svetainėje esančio pasikartojančio turinio, kad nebūtų baudžiama.
Kitos aplinkybės, į kurias reikia atsižvelgti, yra tai, kad kai kurie robotai gali nepaisyti šiame faile pateiktų nurodymų, taip pat turi būti aišku, kad failas yra viešas, nes visi, kurie rašo www.example.com/robots.txt, gali jį pasiekti.
Dabar gali kilti klausimas; Kaip sukurti failą robots.txt?
Tiesą sakant, tai gana paprasta, nes tai yra tekstinis dokumentas pavadinimu „robots.txt“ ir įkeliamas į puslapio domeno šaknį, ten paieškos varikliai eis ieškoti, kad jį perskaitytų.
Pagrindinis robots.txt failas gali būti:
Vartotojo atstovas: *
Neleisti: / privatus /
Sukuriamos instrukcijos, kaip uždrausti prieigą prie katalogo, kuris bus „privatus“ visoms paieškos sistemoms.
Komanda nustato, kad ji skirta visiems robotams (User-agent: *), nurodant, kad katalogas neleidžiamas (Disallow: / private /).
„Google“ paieškos varikliui naudojamas parametras yra; Vartotojo agentas: „Googlebot“
Kaip minėta anksčiau, jo naudojimas SEO naudojamas siekiant apriboti robotų prieigą prie dubliuojamo turinio.Ar jums patiko ir padėjo ši pamoka?Galite apdovanoti autorių paspausdami šį mygtuką, kad suteiktumėte jam teigiamą tašką
wave wave wave wave wave