Internetis salvestatud teabe hulk on tohutu. Nende andmete hulgas on võimatu midagi käsitsi leida. Otsingumootoreid kutsutakse üles protsessi automatiseerima. Nad on arvutisüsteemid, mis korraldavad andmeid ja otsinguid päringute järgi.
Juhised
Samm 1
Otsingumootori serverid töötavad pidevalt programme, mida nimetatakse robotiteks. Bot on robotist lühike sõna. Oma käitumises sarnanevad nad tõesti robotitega. Külastades regulaarselt kõiki saite serverisse salvestatud loendist, viivad nad kõigi tekstide kohalikud koopiad kooskõlla veebisaitide samade tekstide praeguste versioonidega. Robotid järgivad kõiki leitud linke ja kui leiavad äsja loodud lehe, lisavad nad selle loendisse ja loovad ka kohaliku koopia. Koopiaid ei postitata Internetis - need on ainult saitide loendi saamise protsessi lahutamatud osad. See tähendab, et autoriõiguste rikkumist ei toimu.
2. samm
Proovige sama otsingumootorisse mitu korda sama fraas sisestada. Leiate, et tulemused on iga kord samas järjekorras. See muutub harva, mitte sagedamini kui üks kord päevas. Selle põhjus on lihtne - otsingutulemuste järjekorra määrab üsna keeruline algoritm. Arvutamisel võetakse arvesse teatud lehtede sõnade kasutamise sagedust, teistel saitidel asuvate selle lehe linkide arvu ja mitmeid muid tegureid.
3. samm
Veebisaitide omanikud, püüdes viia oma ressursid selle loendi etteotsa, optimeerivad neile postitatud tekste. See optimeerimine võib olla nii "valge" - otsimootorite reeglitega lubatud, "hall" - pole lubatud, kuid pole keelatud, samuti "must" - otseselt keelatud. Viimasel juhul võib sait peagi nimekirjast igaveseks kaduda. Optimeerimisalgoritmid on sageli keerukamad kui otsingutulemite sorteerimise algoritmid.
4. samm
Pärast märksõna või fraasi sisestamist otsib server serveris vasteid tekstide kõikidest kohalikest koopiatest. Seejärel sorteeritakse tulemused ülaltoodud keeruka algoritmi abil. Seejärel genereerib sisuhaldussüsteem automaatselt lehe, mis edastatakse brauserile. Kasutaja soovil saab loendist luua järgmised lehed: teine, kolmas jne.