Mõnikord peab veebimeister ühe indekseeritud lehe otsingumootorist eemaldama. Kõige sagedamini kasutatakse seda toimingut pärast eksliku lehe aadressi sisestamist saidikaardi üldnimekirja. Omal ajal tekkisid selle veaga ettevõtte Megafon spetsialistid (SMS-sõnumid muutusid kättesaadavaks kõigile Yandexi otsingumootori kasutajatele).
See on vajalik
Isiklik sait
Juhised
Samm 1
Üks lihtsamaid viise oma veebilehe otsingumootorite arhiivist eemaldamiseks on selle füüsiline kustutamine, asukoha aadressi muutmine ja vale kustutamine (peate määrama kustutatud lehe atribuudi). Pärast selle lehe teisendamist näeb otsingurobot sisu asemel järgmist rida: HTTP / 1.1 404 ei leitud. Kuid ärge unustage, et otsingurobotid saavad saiti külastada iga 3 tunni tagant ja võib-olla üks kord iga 2-3 päeva tagant. Seetõttu peate tulemuse saamiseks mõnda aega ootama.
2. samm
Järgmine viis on redigeerida faili robots.txt, mis määrab roomiku tee kohe, kui see teie saidile jõuab. Sellel tekstidokumendil on alati üks asukoht - saidi juur. Esimeses lõigus on tavaliselt näidatud Yandexi roboti indekseerimisparameetrid (see erineb oluliselt teistest robotitest), teises lõigus kõigi teiste otsingumootorite puhul.
3. samm
Lõigu alguses peate määrama agendi pealkirja "User-Agent: *" ja peidetavate lehtede aadressid - "Disallow: /wp-content/foto/fotojaba.html". Samamoodi peate määrama lehtede või jaotiste aadressid, mille soovite indekseerimisest sulgeda. Pange tähele, et see meetod ei anna kiireid tulemusi. Kui teie saidi aktiivsus on madal ja uudiseid ei edastata sotsiaalvõrgustikes, võib uute andmete töötlemine ulatuda mitme päevani. Lisaks peate otsinguteenuse arhiivist kustutama nende lehtede versioonid.
4. samm
Alternatiivne viis linkide seadistamiseks failis robots.txt on kasutada samanimelist metaroboti silti. Selle sildi süntaks on järgmine: see tuleb paigutada paaritatud siltide [head] ja [/head] vahele. Robotite väärtus tuleks paigutada metanimemärgendisse. Näide näeks välja selline: