A WordPress tartalom kizárása a Google Keresőből

A WordPress tartalom és fájlok kizárása a Google Keresőből

Időnként ki kell zárnia bizonyos WordPress tartalmakat vagy fájlokat a Google keresési eredményekben való indexelésből. Az index, vagy a „indexelés” a Google és más keresőmotorok megjelenése előtt egy olyan szó, amelyet főleg a könyvekhez társítottak. Ez általában a legtöbb könyv hátulján található, és ezért határozza meg a Cambridge-i szótár ebben az összefüggésben:


Index: ábécé szerinti lista, például egy könyv hátuljára nyomtatott, amely megmutatja, melyik oldalon van a tárgy, név stb.

Gyorsan előre 1995-ig, az internetes fellendülés idején olyan szolgáltatásokkal rendelkezünk, mint a Yahoo keresőmotor, és jön az 1997-es év. A Google keresés drasztikusan megváltoztatta az interneten található információk keresésének és elérésének módját..

A 2018 januárjában készített felmérés szerint 1 805 260 010 (több mint 1,8 milliárd) webhely található az interneten, és ezeknek a webhelyeknek a nagy része egyáltalán nem rendelkezik látogatóval.

Mi a Google indexelése??

Különböző keresőmotorok léteznek, eltérő formátumú indexeléssel, de a népszerű keresőmotorok között szerepel a Google, a Bing és az adatvédelmi gondolkodású személyek számára a duckduckgo.

A Google indexelése általában az új weboldalak – ideértve a digitális tartalmat, például a dokumentumokat, a videókat és a képeket – hozzáadását és adatbázisában történő tárolását jelenti. Más szavakkal: ahhoz, hogy webhelyének tartalma megjelenhessen a Google keresési eredményeiben, először a Google indexében kell tárolni.

Mi a Google indexelése?

A Google képes indexelni ezeket a digitális oldalakat és tartalmakat olyan pókja, robotja vagy robotja segítségével, amelyek többször feltérképezik az internetet az interneten. Ezek a robotok és a robotok a webhelytulajdonosok útmutatásait követik azzal kapcsolatban, hogy mire kell feltérképezni, és mit kell figyelmen kívül hagyni a feltérképezés során.

Miért kell indexelni a webhelyeket??

A digitális korszak ebben a korszakában szinte lehetetlen navigálni a webhelyek milliárdjain, amelyek egy adott témát és tartalmat találnak. Sokkal könnyebb, ha van eszköz, amely megmutatja nekünk, hogy mely webhelyek megbízhatók, mely tartalom hasznos és releváns számunkra. Ezért létezik a Google, és rangsorolja a webhelyeket a keresési eredmények között.

Az indexelés nélkülözhetetlen részévé válik a keresőmotorok, és különösen a Google működésének. Segít azonosítani az oldalakat legjobban leíró szavakat és kifejezéseket, és általánosságban hozzájárul az oldalak és a webhelyek rangsorolásához. Annak érdekében, hogy megjelenjen a Google első oldalán, beleértve a weboldalakat és a digitális fájlokat, például videókat, képeket és dokumentumokat, először indexelni kell.

Az indexelés előfeltétele annak, hogy a webhelyek általában jól helyezkedjenek el a keresőmotorokban és különösen a Google-ban. Kulcsszavak használatával a webhelyek jobban láthatók és felfedezhetők, miután a keresőmotorok indexelték őket és rangsorolták őket. Ez ajtót nyit több látogató, előfizető és potenciális vásárló számára az Ön webhelyén és vállalkozásánál.

A holttestek elrejtésének legjobb helye a Google második oldala.

Noha sok indexelt oldal nem teszi automatikusan magasabb rangú webhelyeket, ha ezeknek az oldalaknak a tartalma is jó, akkor a SEO javulása is növekedhet..

Miért és hogyan blokkolja a keresőmotort a tartalom indexelése?

Míg az indexelés nagyszerű a webhelyek és a vállalkozások tulajdonosai számára, vannak olyan oldalak, amelyeket nem feltétlenül szeretne megjeleníteni a keresési eredmények között. kockáztathatja az érzékeny fájlok és tartalmak internetes megjelenítését is. Jelszavak vagy hitelesítés nélkül a magántartalom veszélyeztetve van az expozíció és az illetéktelen hozzáférés lehetőségével, ha a botok ingyenesen kapják meg a webhely mappáit és fájljait..

A 2000-es évek elején hackerek a Google keresést használta a hitelkártya-adatok megjelenítéséhez webhelyekről egyszerű keresési lekérdezésekkel. Ezt a biztonsági hibát sok hackeres használta fel, hogy ellopják a kártya adatait az e-kereskedelmi webhelyekről.

Egy újabb nemrégiben biztonsági hiba történt a tavalyi évben a box.com számára, egy népszerű felhőalapú tárolórendszer. A biztonsági lyukat Markus Neis, a Swisscom fenyegetés-hírszerzési menedzsere fedte fel. Jelentette, hogy a keresőmotorok – köztük a Google és a Bing – egyszerű kihasználása számos üzleti és egyéni ügyfél bizalmas fájljait és információkat fedheti fel.

Az ilyen esetek online fordulnak elő, és értékesítés és bevételkiesést okozhatnak az üzleti tulajdonosok számára. A vállalati, az e-kereskedelem és a tagsági webhelyek esetében kritikus fontosságú az, hogy először blokkolja az érzékeny tartalom és a magánfájlok keresési indexelését, majd valószínűleg tegyen egy megfelelő felhasználói hitelesítési rendszer mögé..

Vessen egy pillantást arra, hogyan lehet ellenőrizni, mely tartalmat és fájlokat lehet feltérképezni és indexelni a Google és más keresőmotorok között.

1. A Robots.txt használata a képekhez

A Robots.txt egy olyan fájl, amely a webhelyének gyökérzetében található, és amely a Google, a Bing és más keresőmotorok robotjai számára tartalmazza útmutatásokat arról, hogy mit kell feltérképezni, és mit nem. Míg a robots.txt-et általában a bejáró forgalom és az internetes (mobil vs. asztali) bejárók vezérlésére használják, felhasználható arra is, hogy megakadályozzák a képek megjelenését a Google keresési eredményeiben.

A normál WordPress webhelyek robots.txt fájlja így néz ki:

Felhasználói ügynök: *
Tiltás: / wp-admin /
Tiltás: / wp-tartalmaz /

A szokásos robots.txt fájl egy felhasználói ügynök utasításával és egy csillag szimbólummal kezdődik. A csillag az összes robot számára, amely a weboldalra érkezik, utasítja az alább található összes utasítást.

Tartsa távol a robotokat a meghatározott digitális fájloktól a Robot.txt használatával

A Robots.txt felhasználható a digitális fájlok, például PDF, JPEG vagy MP4 keresőmotorok feltérképezésének megakadályozására is. A PDF és JPEG fájlok keresési feltérképezésének megakadályozására ezt hozzá kell adni a robots.txt fájlhoz:

PDF fájlok

Felhasználói ügynök: *
Tiltás: / pdfs / # Blokkolja a / pdfs / könyvtárat.
Tiltás: * .pdf $ # Blokkolja a pdf fájlokat az összes robotból. Annak ellenére, hogy nem szabványos, a fő keresőmotorokban működik.

képek

Felhasználói ügynök: Googlebot-Image
Tiltás: /images/cats.jpg #Block cats.jpg kép kifejezetten a Googlebot számára.

Abban az esetben, ha meg akarja tiltani az összes .GIF-kép indexelését és megjelenítését a google képkeresésben, miközben engedélyezi más képformátumok, például a JPEG és a PNG, a következő szabályokat kell alkalmaznia:

Felhasználói ügynök: Googlebot-Image
Tiltás: /*.gif$

Fontos: A fenti kivonatok egyszerűen kizárják az Ön tartalmát az olyan harmadik felek webhelyein, mint például a Google. Még mindig elérhetőek, ha valaki tudja, hol kell keresni. A fájlok privátvá tétele érdekében, hogy senki ne férhessen hozzá hozzájuk, más módszert, például ezeket a tartalomkorlátozási pluginokat kell használnia.

A Googlebot-Image felhasználható a képek és egy adott képbővítmény blokkolására, hogy azok megjelenjenek a Google képkeresésben. Abban az esetben, ha ki akarja zárni őket az összes Google-keresésből, pl. internetes keresés és képek, helyette ajánlatos Googlebot felhasználói ügynököt használni.

A webhely különféle elemeinek más Google felhasználói ügynökei között szerepel a Googlebot-Video for videos alkalmazás, amelyet az interneten a Google video szakaszban alkalmazhatnak. Hasonlóképpen, a Googlebot felhasználói ügynök használata blokkolja az összes videó megjelenését a google videókban, az internetes keresésben vagy a mobil internetes keresésben.

Robotok txt No-Index

Kérjük, ne feledje, hogy a Robots.txt használata nem megfelelő módszer az érzékeny vagy bizalmas fájlok és tartalmak blokkolására a következő korlátozások miatt:

  • A Robots.txt csak a viselkedéses robotokat utasíthatja; más nem megfelelő keresőmotorok és robotok egyszerűen figyelmen kívül hagyhatják az utasításokat.
  • A Robots.txt nem akadályozza meg a szervert abban, hogy kérésre elküldje ezeket az oldalakat és fájlokat illetéktelen felhasználók számára.
  • A keresőmotorok továbbra is megtalálhatják és indexelhetik az Ön blokkolt oldalát és tartalmát, ha más webhelyekről és forrásokból vannak összekapcsolva.
  • A Robots.txt hozzáférhető bárki számára, aki elolvassa az összes megadott utasítást, és közvetlenül hozzáférhet ezekhez a tartalmakhoz és fájlokhoz

A keresési indexelés blokkolása és a személyes adatok hatékonyabb védelme érdekében kérjük, inkább az alábbi módszereket használja.

2. Az index nélküli metacímke használata az oldalakhoz

Az index nélküli metacímke használata megfelelő és hatékonyabb módszer a weboldal érzékeny tartalmak keresési indexelésének megakadályozására. A robots.txt-szel ellentétben a nem-index metacímke a egy weboldal egy része nagyon egyszerű HTML címkével:



...

Az a oldal, amelynek fejlécében ez az utasítás található, nem jelenik meg a Google keresési eredményében. Egyéb irányelvek például a nofollow és a notranslate szintén használható, hogy a webrobotok ne mutassák át a hivatkozásokat, és az oldal fordítását kínálják.

Több bejárót az oldal több metacímkéjével utasíthat be, az alábbiak szerint:



...


Kétféle módon adhatja hozzá ezt a kódot a webhelyéhez. Az első lehetőség egy WordPress gyermektéma létrehozása, majd a function.php fájljában a WordPress wp_head akcióhorogját használhatja noindex vagy bármely más metacímke beillesztésére. Az alábbiakban bemutatunk egy példát arra, hogy miként lehetne indexelni a bejelentkezési oldalt.

add_action ('wp_head', function () {
if (is_page ('login')) {
visszhang ”„
}
});

A második lehetőség az, hogy SEO-bővítményt használ az oldal láthatóságának ellenőrzésére. Például a Yoast SEO használatával léphet az oldal speciális beállítások szakaszába, és egyszerűen kiválaszthatja a „Nem” lehetőséget a lehetőségekhez, amelyek lehetővé teszik a keresőmotor számára az oldal megjelenítését:

Yoast SEO keresési eredmények beállítása

3. Az X-Robots-Tag HTTP fejléc használata más fájlokhoz

Az X-Robots-Tag nagyobb rugalmasságot biztosít a tartalom és a fájlok keresési indexelésének megakadályozására. Különösen, ha nem indexeljük a metacímkét, akkor felhasználható HTTP fejléc válaszként az adott URL-re. Például használhatja az X-Robots-Tag képet, video- és dokumentumfájlokat, ahol nem lehetséges a robotok metacímkéinek használata.

Te tudsz olvasni A Google teljes robotok metacímke-útmutatója, de a következőképpen utasíthatja a bejárókat, hogy ne kövessék és indexeljék a JPEG-képeket az X-Robots-címke segítségével a HTTP-válaszban:

HTTP / 1.1 200 OK
Tartalom típusa: image / jpeg
Dátum: 2018. november 27., szombat, 01:02:09 GMT
(...)
X-Robotok-Címke: noindex, nofollow
(...)

Bármely irányelv, amelyet egy robotok metacímkéjével lehet használni, az X-Robots-Címkére is vonatkozik. Hasonlóképpen, több keresőmotor robotját is utasíthatja:

HTTP / 1.1 200 OK
Dátum: 2018. szeptember 21., kedd, 21:09:19 GMT
(...)
X-Robots-Tag: googlebot: nofollow
X-Robotok-Címke: bingbot: noindex
X-Robots-Tag: otherbot: noindex, nofollow
(...)

Fontos megjegyezni, hogy a keresőmotorok robotjai a bejárási folyamat során felfedezik a Robotok metacímkéit és az X-Robots-Tag HTTP fejléceket. Tehát ha azt akarja, hogy ezek a robotok kövessék az utasításokat, hogy ne kövessenek vagy indexeljenek bármilyen bizalmas tartalmat és dokumentumokat, akkor nem szabad megállítania ezen oldal- és fájl URL-ek feltérképezését.

Ha blokkolják őket a robots.txt fájl segítségével történő feltérképezésről, akkor az indexelésre vonatkozó utasításokat nem fogják elolvasni, és ezért figyelmen kívül hagyják. Ennek eredményeként, ha más webhelyek hivatkoznak az Ön tartalmára és dokumentumaira, akkor a Google és más keresőmotorok továbbra is indexelik őket.

4. .htaccess szabályok használata az Apache kiszolgálókhoz

Az X-Robots-Tag HTTP fejlécet hozzáadhat a .htaccess fájlhoz, hogy megakadályozza a bejárókat az Apache-kiszolgálón tárolt webhelyének oldalai és digitális tartalmának indexálásában. Az index nélküli metacímkékkel ellentétben a .htaccess szabályok alkalmazhatók egy teljes webhelyen vagy egy adott mappában. A reguláris kifejezések támogatása még nagyobb rugalmasságot kínál a több fájltípus egyszerre történő megcélzásához.

A következő szabályok használatával megakadályozhatja a Googlebot, Bing és Baidu webhelye vagy speciális könyvtárának feltérképezését:

RewriteEngine be
RewriteCond% {HTTP_USER_AGENT} (googlebot | bingbot | Baiduspider) [NC]
RewriteRule. * - [R = 403, L]

Az összes .txt, .jpg, .jpeg, .pdf fájl keresési indexelésének blokkolásához az egész webhelyen, adja hozzá a következő részletet:


Fejléckészlet X-Robotok-Címke "noindex, nofollow"

5. Az oldal hitelesítés használata felhasználónévvel és jelszóval

A fenti módszerek megakadályozzák, hogy személyes tartalma és dokumentumai megjelenjenek a Google keresési eredményeiben. A linktel rendelkező felhasználók azonban elérhetik a tartalmat, és közvetlenül elérhetik fájljait. A biztonság érdekében erősen ajánlott, hogy állítson be megfelelő hitelesítést felhasználónévvel és jelszóval, valamint szerepkör-hozzáférési engedélyekkel.

Az oldal hitelesítés használata

Például azokat az oldalakat, amelyek személyzetének személyes profilját és érzékeny dokumentumokat tartalmaznak, amelyekhez névtelen felhasználók nem férhetnek hozzá, hitelesítési kapu mögé kell helyezni. Tehát akkor is, ha a felhasználóknak valahogy sikerül megtalálniuk az oldalakat, akkor a tartalom ellenőrzése előtt megkérik őket.

WordPress Jelszóvédelem

A WordPress használatával egyszerűen állítsa a bejegyzés láthatóságát jelszóval védett. Így kiválaszthatja a jelszót az oldal tartalmának megtekintéséhez. Ezt meglehetősen könnyű megtenni egy-egy oldal / oldal alapon. A webhely teljes körű adatvédelme érdekében próbálja meg hozzáadni a WordPress tagsági bővítmények egyikét a webhelyére.

Kérjük, ne feledje, hogy a keresőmotorok és a látogatók által jelszóval védett vagy rejtett oldalak nem feltétlenül védik a tartalmához csatolt dokumentumokat, videókat és képeket. A WordPress fájl feltöltésének valódi védelme érdekében egy olyan prémium szolgáltatás, mint például a Direct Access Gold megakadályozása, nagyon ajánlott.

Következtetés

A Google egyik oldalán való verseny során az üzleti tulajdonosok nem vehetik figyelembe azt, amit a keresőmotorok láthatnak. Akár blokkolja a robotok egy adott fájlból, elrejti az egyéni bejelentkezési oldalt, vagy jelszóval védi a magán felhasználói könyvtárakat … rengeteg oldal van, hogy fontolja meg az indexelés elkerülését a keresőmotoroknál.

Kérdése van a tartalom kizárásával a keresési eredményekből? Vagy megakadályozhatja, hogy egyes fájlok indexelték-e a fájlokat? Hagy egy megjegyzést az alábbiakhoz!

Jeffrey Wilson Administrator
Sorry! The Author has not filled his profile.
follow me
    Like this post? Please share to your friends:
    Adblock
    detector
    map