Sådan ekskluderes WordPress-indhold fra Google-søgning

Sådan ekskluderes WordPress-indhold og -filer fra Google-søgning

Nogle gange skal du ekskludere specifikt WordPress-indhold eller filer fra at blive indekseret i Google-søgeresultater. Indeks eller “indeksering” før fremkomsten af ​​Google og andre søgemaskiner var et ord, der hovedsageligt var forbundet med bøger. Den ligger normalt bagerst i de fleste bøger, og det er grunden til, at Cambridge-ordbogen definerer den i denne sammenhæng som:


Indeks: en alfabetisk liste, fx en der er trykt bagerst i en bog, der viser hvilken side et emne, navn osv. er på.

Spol frem til 1995, under internetboom, vi har tjenester som Yahoo-søgemaskine, og i 1997, Google-søgning har dramatisk ændret, hvordan vi søger og får adgang til oplysninger på internettet.

Ifølge en undersøgelse udført i januar 2018 er der 1.805.260.010 (over 1,8 milliarder) websteder på internettet, og mange af disse websteder får overhovedet ingen besøgende.

Hvad er Google Indeksering?

Der er forskellige søgemaskiner med et andet indeksformat, men de populære søgemaskiner inkluderer, Google, Bing og for privatpersoner, duckduckgo.

Google-indeksering henviser generelt til processen med at tilføje nye websider, herunder digitalt indhold som dokumenter, videoer og billeder og gemme dem i sin database. Med andre ord, for at dit websteds indhold skal vises i Google-søgeresultater, skal det først gemmes i Google-indekset.

Hvad er Google Indeksering?

Google er i stand til at indeksere alle disse digitale sider og indhold ved hjælp af dets edderkopper, gennemsøgere eller bots, der gentagne gange gennemsøger forskellige websteder på Internettet. Disse bots og gennemsøgere følger webstedsejernes instruktioner om, hvad de skal gennemgå, og hvad der skal ignoreres under gennemsøgning.

Hvorfor websteder skal indekseres?

I denne æra af den digitale tidsalder er det næsten umuligt at navigere gennem milliarder af websteder med at finde et bestemt emne og indhold. Det vil være meget lettere, hvis der er et værktøj til at vise os, hvilke sider der er troværdige, hvilket indhold der er nyttigt og relevant for os. Derfor findes Google og rangerer websteder i deres søgeresultater.

Indeksering bliver en uundværlig del af, hvordan søgemaskiner generelt og Google i særdeleshed fungerer. Det hjælper med at identificere ord og udtryk, der bedst beskriver en side og generelt bidrager til side- og webstedsrangering. For at blive vist på den første side på Google på dit websted, herunder websider og digitale filer som videoer, billeder og dokumenter, skal først indekseres.

Indeksering er en forudsætning for, at websteder kan rangere godt på søgemaskiner generelt og Google i særdeleshed. Ved hjælp af nøgleord kan sider ses bedre og opdages efter at de er indekseret og rangordnet af søgemaskiner. Dette åbner derefter døre for flere besøgende, abonnenter og potentielle kunder til dit websted og din virksomhed.

Det bedste sted at skjule en død krop er side to på Google.

Selvom det at have en masse indekserede sider ikke automatisk får dine sider til at rangere højere, hvis indholdet af disse sider også er af høj kvalitet, kan du få et løft med hensyn til SEO.

Hvorfor & hvordan man blokerer søgemaskiner fra indeksering af indhold

Mens indeksering er storartet for ejere af websteder og virksomheder, er der sider, som du måske ikke ønsker at vises i søgeresultaterne. du kan også risikere at udsætte følsomme filer og indhold på over internettet. Uden adgangskoder eller autentificering risikerer privat indhold at blive eksponeret og uautoriseret adgang, hvis bots får frie tøj over dit websteds mapper og filer.

I de tidlige 2000’ere, hackere brugte Google-søgning til at vise kreditkortoplysninger fra websteder med enkle søgeforespørgsler. Denne sikkerhedsfejl blev brugt af mange hackere til at stjæle kortoplysninger fra e-handelswebsteder.

En anden nylig sikkerhedsfejl skete sidste år til box.com, et populært skylagringssystem. Sikkerhedshullet blev udsat af Markus Neis, trusselens efterretningschef for Swisscom. Han rapporterede, at enkle udnyttelser af søgemaskiner, herunder Google og Bing, kunne afsløre fortrolige filer og oplysninger fra mange forretnings- og individuelle kunder.

Tilfælde som disse sker online og kan medføre tab i salg og indtægter for virksomhedsejere. For virksomhedswebsteder, e-handel og medlemskabswebsteder er det kritisk vigtigt først at blokere søgeindeksering af følsomt indhold og private filer og derefter sandsynligvis lægge dem bag et anstændigt brugergodkendelsessystem.

Lad os se på, hvordan du kan kontrollere, hvilket indhold og hvilke filer der kan gennemgås og indekseres af Google og andre søgemaskiner..

1. Brug af Robots.txt til billeder

Robots.txt er en fil, der findes i roden af ​​dit websted, der giver Google, Bing og andre søgemaskiner bots med instruktioner om, hvad de skal gennemgå, og hvad ikke. Mens robots.txt normalt bruges til at kontrollere gennemsøgning af trafik og web (mobil vs desktop) crawlere, kan det også bruges til at forhindre, at billeder vises i Google-søgeresultater.

En robots.txt-fil med normale WordPress-websteder ser sådan ud:

Bruger-agent: *
Afvis: / wp-admin /
Afvis: / wp-inkluderer /

Standard robots.txt-filen starter med en instruktion for user-agent og et stjerne symbol. Stjernen er en instruktion for alle bots, der ankommer på webstedet, til at følge alle instruktioner, der er beskrevet nedenfor.

Hold bots væk fra specifikke digitale filer ved hjælp af Robot.txt

Robots.txt kan også bruges til at stoppe gennemsøgning af søgemaskiner af digitale filer såsom PDF-filer, JPEG eller MP4. For at blokere søgning gennemgang af PDF og JPEG fil, bør dette føjes til filen robots.txt:

PDF-filer

Bruger-agent: *
Disallow: / pdfs / # Bloker mappen / pdfs /.
Forlad: * .pdf $ # Bloker pdf-filer fra alle bots. Skønt ikke-standard, det fungerer for større søgemaskiner.

Billeder

Bruger-agent: Googlebot-Image
Disallow: /images/cats.jpg #Block cats.jpg billede til Googlebot specifikt.

Hvis du vil blokere alle .GIF-billeder fra at blive indekseret og vises på google-billedsøgning, mens du tillader andre billedformater som JPEG og PNG, skal du bruge følgende regler:

Bruger-agent: Googlebot-Image
Afvis: /*.gif$

Vigtig: Ovenstående uddrag udelukker simpelthen dit indhold fra at blive indekseret af tredjepartswebsteder som f.eks. Google. De er stadig tilgængelige, hvis nogen ved, hvor de skal se. For at gøre filer private, så ingen kan få adgang til dem, skal du bruge en anden metode, f.eks. Disse indholdsbegrænsningsplugins.

Googlebot-Image kan bruges til at blokere billeder og en bestemt billedudvidelse fra at blive vist på Google Billedsøgning. I tilfælde af at du vil ekskludere dem fra alle Google-søgninger, f.eks. websøgning og billeder, tilrådes det i stedet at bruge en Googlebot-brugeragent.

Andre Google-brugeragenter til forskellige elementer på et websted inkluderer Googlebot-Video til videoer fra at anvende i Google-videosektionen på nettet. Tilsvarende vil brug af Googlebot-brugeragent blokere alle videoer fra at blive vist i google-videoer, internetsøgning eller mobilwebsøgning.

Robotter txt No-Index

Husk, at brug af Robots.txt ikke er en passende metode til at blokere følsomme eller fortrolige filer og indhold på grund af følgende begrænsninger:

  • Robots.txt kan kun instruere velopdragne crawlere; andre ikke-kompatible søgemaskiner og bots kunne simpelthen ignorere dens instruktioner.
  • Robots.txt forhindrer ikke din server i at sende disse sider og filer til uautoriserede brugere efter anmodning.
  • Søgemaskiner kan stadig finde og indeksere den side og det indhold, du blokerer i tilfælde af, at de er linket fra andre websteder og kilder.
  • Robots.txt er tilgængelig for alle, der derefter kunne læse alle dine medfølgende instruktioner og få adgang til dette indhold og filer direkte

For at blokere søgeindeksering og beskytte dine private oplysninger mere effektivt skal du bruge følgende metoder i stedet.

2. Brug af ikke-indeks Metatag til sider

Brug af metatag uden indeks er en ordentlig og mere effektiv metode til at blokere søgeindeksering af følsomt indhold på dit websted. I modsætning til robots.txt placeres ingen-indeks metatagget i sektion af en webside med et meget simpelt HTML-tag:



...

Enhver side med denne instruktion på overskriften vises ikke i Googles søgeresultat. Andre direktiver såsom nofollow og notranslate kan også bruges til at fortælle webcrawlere om ikke at gennemgå linkene og tilbyder oversættelse af den pågældende side.

Du kan instruere flere crawlers ved hjælp af flere metatags på en side som følger:



...


Der er to måder at tilføje denne kode til dit websted. Din første mulighed er at oprette et WordPress-underordnet tema, og derefter i dine features.php kan du bruge WordPress wp_head-handlingskroken til at indsætte en noindex eller andre metatags. Nedenfor er et eksempel på, hvordan du vil indeksere til din login-side.

add_action ('wp_head', funktion () {
if (is_page ('login')) {
ekko '';
}
});

Din anden mulighed er at bruge dit SEO-plugin til at kontrollere en sides synlighed. For eksempel med Yoast SEO kan du gå til afsnittet om avancerede indstillinger på en side og blot vælge “Nej” for indstillingerne for at give søgemaskinerne mulighed for at vise siden:

Indstilling af Yoast SEO-søgeresultater

3. Brug af X-Robots-Tag HTTP-header til andre filer

X-Robots-tag giver dig mere fleksibilitet til at blokere søgeindeksering af dit indhold og filer. Når det sammenlignes med metatagget uden indeks, kan det især bruges som HTTP-header-respons for enhver given URL-adresse. For eksempel kan du bruge X-Robots-taggen til billed-, video- og dokumentfiler, hvor det ikke er muligt at bruge robotens metakoder.

Du kan læse Googles fulde metatagguide for robotter, men her er, hvordan du kan instruere crawlere om ikke at følge og indeksere et JPEG-billede ved hjælp af X-Robots-Tag på sit HTTP-svar:

HTTP / 1.1 200 OK
Indholdstype: image / jpeg
Dato: Lør, 27. nov. 2018 01:02:09 GMT
(...)
X-Robots-Tag: noindex, nofollow
(...)

Eventuelle direktiver, der kunne bruges med en robot-metatag, gælder også for et X-Robots-Tag. Tilsvarende kan du også instruere flere søgemaskine-bots:

HTTP / 1.1 200 OK
Dato: Tir, 21 Sep 2018 21:09:19 GMT
(...)
X-Robots-Tag: googlebot: nofollow
X-Robots-Tag: bingbot: noindex
X-Robots-Tag: otherbot: noindex, nofollow
(...)

Det er vigtigt at bemærke, at søgemaskinerbots opdager Roboternes metakoder og X-Robots-Tag HTTP-overskrifter under gennemsøgningsprocessen. Så hvis du ønsker, at disse bots skal følge din instruktion om ikke at følge eller indeksere noget fortroligt indhold og dokumenter, skal du ikke stoppe disse side- og fil-webadresser i at gennemgå.

Hvis de er blokeret fra at gennemgå ved hjælp af filen robots.txt, læses dine instruktioner om indeksering ikke og så ignoreres. Som et resultat, hvis andre websteder linker til dit indhold og dokumenter, indekseres de stadig af Google og andre søgemaskiner.

4. Brug af .htaccess-regler for Apache-servere

Du kan også tilføje X-Robots-Tag HTTP-header til din .htaccess-fil for at blokere crawlere fra at indeksere sider og digitalt indhold på dit websted, der er vært på en Apache-server. I modsætning til metatags uden indeks, kan .htaccess-regler anvendes på et helt websted eller en bestemt mappe. Dens støtte til regelmæssige udtryk giver dig endnu større fleksibilitet for at målrette mod flere filtyper på én gang.

Brug følgende regler for at blokere Googlebot, Bing og Baidu fra at gennemgå et websted eller et specielt bibliotek:

RewriteEngine On
RewriteCond% {HTTP_USER_AGENT} (googlebot | bingbot | Baiduspider) [NC]
RewriteRule. * - [R = 403, L]

For at blokere søgeindeksering af alle .txt-, .jpg-, .jpeg-, .pdf-filer på hele dit websted skal du tilføje følgende uddrag:


Header-sæt X-Robots-Tag "noindex, nofollow"

5. Brug af sidegodkendelse med brugernavn og adgangskode

Ovenstående metoder forhindrer, at dit private indhold og dokumenter vises i Googles søgeresultater. Alle brugere med linket kan imidlertid nå dit indhold og få adgang til dine filer direkte. For sikkerheds skyld anbefales det, at du konfigurerer korrekt godkendelse med brugernavn og adgangskode samt tilladelse til rolleadgang.

Brug af side-godkendelse

For eksempel skal sider, der inkluderer personlige profiler af personale og følsomme dokumenter, som ikke skal få adgang til af anonyme brugere, skubbes bag en godkendelsesport. Så selv når brugerne på en eller anden måde formår at finde siderne, bliver de bedt om legitimationsoplysninger, før de kan tjekke indholdet.

WordPress-adgangskodebeskyttelse

For at gøre dette med WordPress skal du blot indstille synligheden af ​​et indlæg til adgangskodebeskyttet. På denne måde kan du vælge en adgangskode, der kræves for at se indholdet på denne side. Dette er forholdsvis let at gøre per post / side-basis. For at få et mere omfattende webstedets privatliv kan du prøve at tilføje et af disse WordPress-medlemskabsplugins til dit websted.

Husk, at adgangskodebeskyttede eller skjulte sider fra søgemaskiner og besøgende ikke nødvendigvis beskytter de dokumenter, videoer og billeder, der er knyttet til dens indhold. For reel beskyttelse af dine WordPress-fil uploads, anbefales en premium service som Forhindrer direkte adgang guld stærkt.

Konklusion

I løbet om at være på side en af ​​Google kan forretningsejere muligvis ikke tage hensyn til, hvad søgemaskiner kan se. Uanset om du blokerer for bots fra en bestemt fil, skjuler en brugerdefineret login-side eller adgangskode til beskyttelse af private brugerkataloger … der er masser af sider, der skal overvejes at ikke indeksere, når det kommer til søgemaskiner.

Har du spørgsmål om at ekskludere indhold fra søgeresultater? Eller forhindrer indeksering af visse filer? Efterlad en kommentar nedenfor!

Jeffrey Wilson Administrator
Sorry! The Author has not filled his profile.
follow me
    Like this post? Please share to your friends:
    Adblock
    detector
    map