Kā pareizi iestatīt failu Robots.txt?

Satura rādītājs:

Kā pareizi iestatīt failu Robots.txt?
Kā pareizi iestatīt failu Robots.txt?
Anonim

Pareizais robotu txt HTML vietnei izveido darbības maketus meklētājprogrammu robotiem, norādot, ko viņi var pārbaudīt. Šo failu bieži dēvē par robotu izslēgšanas protokolu. Pirmā lieta, ko roboti meklē pirms vietnes pārmeklēšanas, ir fails robots.txt. Tas var norādīt uz vai norādīt vietnes kartei nepārbaudīt noteiktus apakšdomēnus. Ja vēlaties, lai meklētājprogrammas meklētu visbiežāk atrasto, fails robots.txt nav nepieciešams. Šajā procesā ir ļoti svarīgi, lai fails būtu pareizi formatēts un neindeksētu lietotāja lapu ar lietotāja personas datiem.

Robotu skenēšanas princips

Robotu skenēšanas princips
Robotu skenēšanas princips

Kad meklētājprogramma saskaras ar failu un redz aizliegtu URL, tā to nepārmeklē, taču var to indeksēt. Tas ir tāpēc, ka pat tad, ja robotiem nav atļauts skatīt saturu, viņi var atcerēties atpakaļsaites, kas norāda uz aizliegto URL. Tā kā piekļuve saitei ir bloķēta, URL parādīsies meklētājprogrammās, taču bez fragmentiem. Jaienākošajai mārketinga stratēģijai ir nepieciešams pareizs Robots txt for Bitrix (Bitrix), tie nodrošina vietnes pārbaudi pēc lietotāja pieprasījuma, izmantojot skenerus.

No otras puses, ja fails nav pareizi formatēts, vietne var neparādīties meklēšanas rezultātos un netikt atrasta. Meklētājprogrammas nevar apiet šo failu. Programmētājs var apskatīt jebkuras vietnes robots.txt, dodoties uz tās domēnu un sekojot tam ar robots.txt, piemēram, www.domain.com/robots.txt. Izmantojot tādu rīku kā Unamo SEO optimizācijas sadaļa, kurā varat ievadīt jebkuru domēnu, un pakalpojums parādīs informāciju par faila esamību.

Skenēšanas ierobežojumi:

  1. Lietotājam ir novecojis vai sensitīvs saturs.
  2. Vietnē esošie attēli netiks iekļauti attēlu meklēšanas rezultātos.
  3. Vietne vēl nav gatava demonstrācijai, lai robots to indeksētu.

Ņemiet vērā, ka informācija, ko lietotājs vēlas saņemt no meklētājprogrammas, ir pieejama ikvienam, kas ievada URL. Neizmantojiet šo teksta failu, lai slēptu sensitīvus datus. Ja domēnā ir 404 (nav atrasts) vai 410 (nokārtots) kļūda, meklētājprogramma pārbauda vietni, neskatoties uz robots.txt klātbūtni, un tādā gadījumā tā uzskata, ka fails trūkst. Citas kļūdas, piemēram, 500 (iekšējā servera kļūda), 403 (aizliegts), noildze vai "nav pieejams", ievēro robots.txt instrukcijas, tomēr apiešana var aizkavēties, līdz fails ir pieejams.

Meklēšanas faila izveide

Meklēšanas faila izveide
Meklēšanas faila izveide

DaudziSPS programmām, piemēram, WordPress, jau ir fails robots.txt. Pirms pareizi konfigurēt Robots txt WordPress, lietotājam ir jāiepazīstas ar tā iespējām, lai noskaidrotu, kā tai piekļūt. Ja programmētājs izveido failu pats, tam jāatbilst šādiem nosacījumiem:

  1. Jābūt ar mazajiem burtiem.
  2. Izmantojiet UTF-8 kodējumu.
  3. Saglabāt teksta redaktorā kā failu (.txt).

Ja lietotājs nezina, kur to ievietot, viņš sazinās ar tīmekļa servera programmatūras pārdevēju, lai uzzinātu, kā piekļūt domēna saknei, vai dodieties uz Google konsoli un lejupielādējiet to. Izmantojot šo funkciju, Google var arī pārbaudīt, vai robots darbojas pareizi, un to vietņu sarakstu, kuras ir bloķētas, izmantojot failu.

Pareizā Robots txt galvenais formāts Bitrix (Bitrix):

  1. Leģenda robots.txt.
  2. , pievieno komentārus, kas tiek izmantoti tikai kā piezīmes.
  3. Skeneri ignorēs šos komentārus, kā arī visas lietotāja drukas kļūdas.
  4. User-agent - norāda, kurā meklētājprogrammā ir norādīti faila norādījumi.
  5. Zvaigznītes () pievienošana skeneriem norāda, ka norādījumi ir paredzēti visiem.

Norāda konkrētu robotu, piemēram, Googlebot, Baiduspider, Applebot. Disallow norāda rāpuļprogrammām, kuras vietnes daļas nevajadzētu pārmeklēt. Tas izskatās šādi: Lietotāja aģents:. Zvaigznīte nozīmē "visas robotprogrammas". Tomēr varat norādīt konkrētas lapasrobotprogrammatūras. Lai to izdarītu, jums ir jāzina robota nosaukums, kuram ir iestatīti ieteikumi.

Pareizais robotu txt Yandex varētu izskatīties šādi:

Labojiet robotu txt Yandex
Labojiet robotu txt Yandex

Ja robotam nevajadzētu pārmeklēt vietni, varat to norādīt, un, lai atrastu lietotāju aģentu nosaukumus, ieteicams iepazīties ar vietnes useragentstring.com tiešsaistes iespējām.

Lapas optimizācija

Lapas optimizācija
Lapas optimizācija

Tālāk norādītās divas rindiņas tiek uzskatītas par pilnīgu robots.txt failu, un vienā robots failā var būt vairākas rindas ar lietotāja aģentiem un norādījumiem, kas atspējo vai iespējo pārmeklēšanu. Pareizā robotu teksta galvenais formāts:

  1. Lietotāja aģents: [aģenta lietotājvārds].
  2. Disallow: .

Failē katrs direktīvu bloks tiek parādīts kā diskrēts, atdalīts ar rindiņu. Failā, kas atrodas blakus aģenta lietotāja direktorijam, katrs noteikums tiek piemērots noteiktai ar sadaļām atdalītu rindu kopai. Ja failam ir vairāku aģentu noteikums, robots ņems vērā tikai visprecīzāko instrukciju grupu.

Tehniskā sintakse

Tehniskā sintakse
Tehniskā sintakse

To var uzskatīt par robots.txt failu "valodu". Šajā formātā var pastāvēt pieci termini, no kuriem galvenie ir:

  1. Lietotāja aģents - tīmekļa rāpuļprogramma ar rāpuļprogrammas instrukcijām, parasti meklētājprogramma.
  2. Disallow ir komanda, ko izmanto, lai liktu lietotāja aģentam apietkonkrēta URL (izlaišana). Katram ir tikai viens aizliegts nosacījums.
  3. Atļaut. Googlebot, kas iegūst piekļuvi, pat lietotāja lapa tiek liegta.
  4. Rāpuļprogrammas aizkave - norāda, cik sekundes rāpuļprogrammai būs nepieciešams pirms pārmeklēšanas. Ja robots to neapstiprina, ātrums tiek iestatīts Google konsolē.
  5. Vietnes karte - izmanto, lai atrastu visas ar URL saistītās XML kartes.

Rakstu atbilstības

Ja runa ir par faktisku vietrāžu URL bloķēšanu vai derīga robotu txt atļaušanu, darbības var būt diezgan sarežģītas, jo tās ļauj izmantot modeļu saskaņošanu, lai aptvertu vairākus iespējamos URL parametrus. Gan Google, gan Bing izmanto divas rakstzīmes, kas identificē lapas vai apakšmapes, kuras SEO vēlas izslēgt. Abas rakstzīmes ir zvaigznīte () un dolāra zīme ($), kur:ir aizstājējzīme, kas apzīmē jebkuru rakstzīmju secību. $ - atbilst URL beigām.

Google piedāvā lielu iespējamo veidņu sintakse sarakstu, kas lietotājam izskaidro, kā pareizi iestatīt Robots txt failu. Daži izplatīti lietošanas gadījumi ir šādi:

  1. Novērst dublēta satura parādīšanos meklēšanas rezultātos.
  2. Saglabājiet visas vietnes sadaļas privātas.
  3. Saglabājiet meklēšanas rezultātu iekšējās lapas, pamatojoties uz atvērto paziņojumu.
  4. Norādiet atrašanās vietu.
  5. Neļaujiet meklētājprogrammām indeksēt noteiktusfaili.
  6. Rāpuļprogrammas aizkaves norādīšana, lai apturētu atkārtotu ielādi, vienlaikus skenējot vairākus satura apgabalus.

Pārbauda robota faila esamību

Ja vietnē nav apgabalu, kas būtu jāpārmeklē, tad fails robots.txt vispār nav vajadzīgs. Ja lietotājs nav pārliecināts, ka šis fails eksistē, viņam jāievada saknes domēns un jāievada tas URL beigās, apmēram šādi: moz.com/robots.txt. Vairāki meklēšanas roboti ignorē šos failus. Tomēr, kā likums, šīs rāpuļprogrammas nepieder cienījamiem meklētājprogrammām. Tie ir surogātpasta izplatītāji, e-pasta apkopotāji un cita veida automatizēti robotprogrammatūras, kas internetā ir sastopamas ļoti daudz.

Ir ļoti svarīgi atcerēties, ka robotu izslēgšanas standarta izmantošana nav efektīvs drošības pasākums. Faktiski daži robotprogrammatūras var sākties ar lapām, kurās lietotājs iestata tās skenēšanas režīmā. Standarta izņēmuma failā ir vairākas daļas. Pirms sakāt robotam, kurās lapās tam nevajadzētu darboties, jums jānorāda, ar kuru robotu runāt. Vairumā gadījumu lietotājs izmantos vienkāršu deklarāciju, kas nozīmē "visi roboti".

SEO optimizācija

SEO optimizācija
SEO optimizācija

Pirms optimizācijas lietotājam ir jāpārliecinās, ka viņš nebloķē nevienu vietnes saturu vai sadaļas, kuras ir jāapiet. Saites uz lapām, kuras bloķē pareizais robotu txt, netiks ievērotas. Tas nozīmē:

  1. Ja tie nav saistīti ar citām meklētājprogrammām pieejamām lapām, ti. lapas,nav bloķēts failā robots.txt vai meta robots, un saistītie resursi netiks pārmeklēti, un tāpēc tos nevar indeksēt.
  2. No bloķētas lapas uz saites galamērķi nevar nodot nevienu saiti. Ja ir šāda lapa, labāk ir izmantot citu bloķēšanas mehānismu, nevis robots.txt.

Tā kā citās lapās var būt tiešas saites uz lapu, kurā ir personas informācija, un jūs vēlaties bloķēt šo lapu no meklēšanas rezultātiem, izmantojiet citu metodi, piemēram, aizsardzību ar paroli vai noindex metadatus. Dažām meklētājprogrammām ir vairāki lietotāju aģenti. Piemēram, Google izmanto Googlebot dabiskajai meklēšanai un Googlebot-Image attēlu meklēšanai.

Lielākā daļa lietotāju aģentu no vienas meklētājprogrammas ievēro vienus un tos pašus noteikumus, tāpēc nav nepieciešams norādīt norādījumus katrai no vairākām rāpuļprogrammām, taču, to darot, var precīzi noregulēt vietnes satura pārmeklēšanu. Meklētājprogramma saglabā faila saturu kešatmiņā un parasti atjaunina kešatmiņā saglabāto saturu vismaz reizi dienā. Ja lietotājs maina failu un vēlas to atjaunināt ātrāk nekā parasti, viņš var iesniegt Google serveriem robots.txt URL.

Meklētājprogrammas

Pārbauda robota faila esamību
Pārbauda robota faila esamību

Lai saprastu, kā Robots txt darbojas pareizi, jums jāzina par meklētājprogrammu iespējām. Īsāk sakot, viņu spējas slēpjas faktā, ka viņi sūta "skenerus", kas ir programmas, kasinformācijas pārlūkošana internetā. Pēc tam viņi saglabā daļu šīs informācijas, lai vēlāk to nodotu lietotājam.

Daudziem cilvēkiem Google jau ir internets. Patiesībā viņiem ir taisnība, jo tas, iespējams, ir viņa vissvarīgākais izgudrojums. Un, lai gan meklētājprogrammas kopš to izveides ir daudz mainījušās, to pamatā esošie principi joprojām ir tie paši. Rāpuļprogrammas, kas pazīstamas arī kā "robots" vai "zirneklis", atrod lapas no miljardiem vietņu. Meklētājprogrammas sniedz viņiem norādes, kurp doties, savukārt atsevišķas vietnes var arī sazināties ar robotprogrammatūrām un norādīt, kuras konkrētas lapas viņiem vajadzētu apskatīt.

Parasti vietņu īpašnieki nevēlas parādīties meklētājprogrammās: administratora lapās, aizmugursistēmas portālos, kategorijās un tagos un citās informācijas lapās. Failu robots.txt var izmantot arī, lai neļautu meklētājprogrammām pārbaudīt lapas. Īsāk sakot, robots.txt norāda tīmekļa rāpuļprogrammām, kas jādara.

Padzīt lapas

Šī ir galvenā robotu izslēgšanas faila daļa. Izmantojot vienkāršu deklarāciju, lietotājs liek robotam vai robotprogrammatūru grupai nepārmeklēt noteiktas lapas. Sintakse ir vienkārša, piemēram, lai liegtu piekļuvi visam vietnes "admin" direktorijā, ierakstiet: Disallow: /admin. Šī rindiņa neļaus robotiem pārmeklēt vietnes yoursite.com/admin, yoursite.com/admin/login, yoursite.com/admin/files/secret.html un jebko citu, kas atrodas administratora direktorijā.

Lai neatļautu vienu lapu, vienkārši norādiet to rindiņā Disallow: Disallow: /public/exception.html. Tagad lapa "izņēmums".netiks migrēts, bet viss pārējais publiskajā mapē tiks veikts.

Lai iekļautu vairākas lapas, vienkārši uzskaitiet tās:

Katalogi un lapas
Katalogi un lapas

Šīs četras pareizā Robots txt rindiņas simfonijai attieksies uz jebkuru lietotāja aģentu, kas norādīts vietnes https://www.symphonyspace.org/.robots.txt sadaļas augšpusē.

Aizliegt lapas
Aizliegt lapas

Vietnes karte:

Citas komandas:live - neļaut tīmekļa rāpuļprogrammām indeksēt cpresources/ vai nodrošinātāju/.

Lietotāja aģents:Neatļaut: /cpresources/.

Liegt: / piegādātājs / Neatļaut: /.env.

Standartu noteikšana

Lietotājs var norādīt konkrētas lapas dažādiem robotiem, apvienojot divus iepriekšējos elementus, šādi tas izskatās. Pareiza robotu txt piemērs visām meklētājprogrammām ir parādīts zemāk.

Standartu noteikšana
Standartu noteikšana

Sadaļas "admin" un "privāts" būs neredzamas Google un Bing, taču Google joprojām redzēs "slepeno" direktoriju, savukārt Bing to neredzēs. Varat norādīt vispārīgus noteikumus visiem robotiem, izmantojot lietotāja aģentu ar zvaigznīti, un pēc tam dot robotiem īpašus norādījumus nākamajās sadaļās. Izmantojot iepriekš minētās zināšanas, lietotājs var uzrakstīt pareizo Robots txt piemēru visām meklētājprogrammām. Vienkārši aktivizējiet savu iecienītāko teksta redaktoru un paziņojiet robotiem, ka viņi nav laipni aicināti noteiktās vietnes daļās.

Padomi servera veiktspējas uzlabošanai

SublimeText irdaudzpusīgs teksta redaktors un zelta standarts daudziem programmētājiem. Turklāt viņa programmēšanas padomi ir balstīti uz efektīvu kodēšanu. lietotāji novērtē īsinājumtaustiņu klātbūtni programmā. Ja lietotājs vēlas redzēt faila robots.txt piemēru, viņam ir jādodas uz jebkuru vietni un beigās jāpievieno "/robots.txt". Šeit ir daļa no faila robots.txt GiantBicycles.

Programma nodrošina tādu lapu izveidi, kuras lietotāji nevēlas rādīt meklētājprogrammās. Un tajā ir arī dažas ekskluzīvas lietas, par kurām tikai daži cilvēki zina. Piemēram, lai gan fails robots.txt robotiem norāda, kur nedoties, vietnes kartes fails rīkojas pretēji un palīdz atrast meklēto, un, lai gan meklētājprogrammas, iespējams, jau zina, kur vietnes karte atrodas, tā nesaņem. ceļā.

Ir divu veidu faili: HTML lapa vai XML fails. HTML lapa ir lapa, kas apmeklētājiem parāda visas tīmekļa vietnē pieejamās lapas. Savā robots.txt failā tas izskatās šādi: Sitemap://www.makeuseof.com/sitemap_index.xml. Ja meklētājprogrammas nav indeksējušas vietni, lai gan tīmekļa roboti to ir pārmeklējuši vairākas reizes, jums ir jāpārliecinās, vai fails ir klāt un tā atļaujas ir iestatītas pareizi.

Pēc noklusējuma tas notiks ar visām SeoToaster instalācijām, bet, ja nepieciešams, varat to atiestatīt šādi: Fails robots.txt - 644. Atkarībā no PHP servera, ja tas nedarbojas lietotājam, tas ieteicams izmēģināt sekojošo: Fails robots.txt - 666.

Skenēšanas aizkaves iestatīšana

Apvedceļa aizkaves direktīva informē noteiktusmeklētājprogrammas, cik bieži tās var rādīt vietnes lapu. To mēra sekundēs, lai gan dažas meklētājprogrammas to interpretē nedaudz atšķirīgi. Daži lietotāji redz rāpuļprogrammas aizkavi 5, kad viņiem tiek likts gaidīt piecas sekundes pēc katras skenēšanas, lai sāktu nākamo.

Citi to interpretē kā norādījumu skenēt tikai vienu lapu ik pēc piecām sekundēm. Robots nevar skenēt ātrāk, lai saglabātu servera joslas platumu. Ja serverim ir jāsaskaņo trafika, tas var iestatīt apiešanas aizkavi. Parasti vairumā gadījumu lietotājiem par to nav jāuztraucas. Šādi tiek iestatīta astoņu sekunžu pārmeklēšanas aizkave - pārmeklēšanas aizkave: 8.

Bet ne visas meklētājprogrammas ievēros šo direktīvu, tāpēc, aizliedzot lapas, noteiktām meklētājprogrammām varat iestatīt dažādus pārmeklēšanas aizkaves. Kad visi failā sniegtie norādījumi ir iestatīti, varat to augšupielādēt vietnē. Vispirms pārliecinieties, vai tas ir vienkāršs teksta fails, kura nosaukums ir robots.txt un to var atrast vietnē yoursite.com/robots.txt.

Labākais WordPress robots

Labākais WordPress robots
Labākais WordPress robots

WordPress vietnē ir daži faili un direktoriji, kas katru reizi ir jābloķē. Katalogi, kurus lietotājiem vajadzētu aizliegt, ir cgi-bin direktorijs un standarta WP direktoriji. Daži serveri neļauj piekļūt cgi-bin direktorijam, taču lietotājiem tas ir jāiekļauj direktīvā disallow, pirms pareizi konfigurēt Robots txt WordPress

Standarta WordPress direktoriji,kas jābloķē, ir wp-admin, wp-content, wp-includes. Šajos direktorijos nav datu, kas sākotnēji būtu noderīgi meklētājprogrammām, taču ir izņēmums, t.i., wp-content direktorijā ir apakšdirektorijs ar nosaukumu augšupielādes. Šis apakšdirektorijs ir jāatļauj robot.txt failā, jo tajā ir iekļauts viss, kas tiek ielādēts, izmantojot WP multivides augšupielādes funkciju. WordPress satura strukturēšanai izmanto tagus vai kategorijas.

Ja tiek izmantotas kategorijas, tad, lai uztaisītu pareizo Robots txt priekš Wordpress, kā norādījis programmas ražotājs, ir nepieciešams bloķēt tagu arhīvus no meklēšanas. Pirmkārt, viņi pārbauda datu bāzi, dodoties uz paneli "Administrēšana"> "Iestatījumi"> "Pastāvīgā saite".

Pēc noklusējuma bāze ir tags, ja lauks ir tukšs: Disallow: / tag /. Ja tiek izmantota kategorija, failā robot.txt šī kategorija ir jāatspējo: Disallow: /category/. Pēc noklusējuma bāze ir tags, ja lauks ir tukšs: Disallow: / tag /. Ja tiek izmantota kategorija, failā robot.txt šī kategorija ir jāatspējo: Disallow: / category /.

Faili, ko galvenokārt izmanto satura rādīšanai, tos bloķēs pareizais WordPress txt fails Robots:

Roboti txt WordPress
Roboti txt WordPress

Joomla pamata iestatīšana

Kad lietotājs ir instalējis Joomla, jums ir jāaplūko pareizais Joomla Robots txt iestatījums globālajā konfigurācijā, kas atrodas vadības panelī. Daži iestatījumi šeit ir ļoti svarīgi SEO. Vispirms atrodiet vietnes nosaukumu un pārliecinieties par totiek izmantots vietnes īsais nosaukums. Pēc tam viņi atrod iestatījumu grupu pa labi no tā paša ekrāna, ko sauc par SEO iestatījumiem. Tas, kas noteikti būs jāmaina, ir otrais: izmantojiet pārrakstīšanas URL.

Tas izklausās sarežģīti, taču būtībā tas palīdz Joomla izveidot tīrākus URL. Visvairāk pamanāms, ja no URL noņemat rindiņu index.php. Ja mainīsit to vēlāk, mainīsies vietrāži URL, un Google tas nepatiks. Tomēr, mainot šo iestatījumu, vienlaikus ir jāveic vairākas darbības, lai izveidotu pareizo robotu txt Joomla:

  1. Atrodiet failu htaccess.txt Joomla saknes mapē.
  2. Atzīmējiet to kā.htaccess (bez paplašinājuma).
  3. Iekļaujiet vietnes nosaukumu lapu nosaukumos.
  4. Atrodiet metadatu iestatījumus globālās konfigurācijas ekrāna apakšā.

Robots mākonī MODX

Robots MODX mākonī
Robots MODX mākonī

Iepriekš MODX Cloud nodrošināja lietotājiem iespēju kontrolēt robots.txt faila apkalpošanu, izmantojot pārslēgšanas pogu informācijas panelī. Lai gan tas bija noderīgi, bija iespējams nejauši atļaut indeksēšanu inscenēšanas/izstrādātāju vietnēs, pārslēdzot opciju informācijas panelī. Līdzīgi bija viegli atspējot indeksēšanu ražošanas vietā.

Šodien pakalpojums pieņem, ka failu sistēmā ir faili robots.txt ar šādu izņēmumu: jebkurš domēns, kas beidzas ar modxcloud.com, kalpos kā Disallow: /direktīva visiem lietotāju aģentiem neatkarīgi no to klātbūtnes. vai faila neesamība. Ražošanas vietnēm, kas saņem reālu apmeklētāju datplūsmu, būs jāizmanto savs domēns, ja lietotājs vēlas indeksēt viņu vietni.

Dažas organizācijas izmanto pareizo Robots txt for modx, lai palaistu vairākas vietnes no vienas instalācijas, izmantojot kontekstu. To varētu izmantot publiska mārketinga vietne, kas apvienota ar galvenās lapas mikrovietnēm un, iespējams, nepublisks iekštīkls.

Tradicionāli to ir bijis grūti izdarīt vairāku lietotāju instalācijām, jo tām ir viena tīkla sakne. Izmantojot MODX Cloud, tas ir vienkārši. Vienkārši augšupielādējiet papildu failu vietnē robots-intranet.example.com.txt ar šādu saturu, un tas bloķēs indeksēšanu ar labi strādājošiem robotiem, un visi pārējie saimniekdatora nosaukumi būs standarta faili, ja vien nav citu īpašu nosaukumu mezglu.

Robots.txt ir svarīgs fails, kas palīdz lietotājam izveidot saiti uz vietni Google tīklā, lielākajās meklētājprogrammās un citās vietnēs. Fails atrodas tīmekļa servera saknē, un tas uzdod tīmekļa robotiem pārmeklēt vietni, iestatīt, kuras mapes tai jāindeksē vai nevajadzētu indeksēt, izmantojot instrukciju kopu, ko sauc par robotu izslēgšanas protokolu. Pareiza Robots txt piemērs visām meklētājprogrammām obots.txt ir īpaši viegli izdarāms ar SeoToaster. Tam vadības panelī ir izveidota īpaša izvēlne, tāpēc robotam nekad nebūs jāpārpūlas, lai piekļūtu.

Ieteicams: