Crawler architecture

Innen: MIA
A lap korábbi változatát látod, amilyen Admin (vitalap | szerkesztései) 2017. július 23., 14:32-kor történt szerkesztése után volt. (Új oldal, tartalma: „ Egy crawler szoftver legegyszerűbb változata ilyen modulokból áll: * crawl frontier \(a feldolgozandó URI címeket és a feldolgozási szabályokat tarta…”)
(eltér) ← Régebbi változat | Aktuális változat (eltér) | Újabb változat→ (eltér)

Egy crawler szoftver legegyszerűbb változata ilyen modulokból áll:

  • crawl frontier \(a feldolgozandó URI címeket és a feldolgozási szabályokat tartalmazza)
  • DNS resolution module (a domain nevek IP címekre való feloldását végzi, ami egy szűk keresztmetszet a webaratásoknál, mert egyes címek feloldására vagy a hibaüzenetre néha perceket kell várni; ezért szokás a már feloldott neveket egy DNS cache-ben helyben eltárolni, hogy ne kelljen mindig a DNS szervereket kérdezgetni)
  • fetch module (a HTTP protokollon keresztül letölti az adott weboldalt alkotó fájlokat)
  • parsing module (kielemzi a weboldal kódját, kiszedi belőle a szöveget és a linkeket)
  • duplicate elimination module (eldönti, hogy egy megtalált link benne van-e már a crawl frontier URI címlistájában, vagy fel kell venni újként a letöltendők közé\)

Ezen alapmodulok mellett még sokféle kiegészítő modul is beépíthető egy crawler-be (pl. olyan, amelyik ki tud elemezni webkettes oldalakat is, vagy FTP szerveket is be tud járni, vagy amellyel deduplikálható a korábbi mentésekben már szereplő tartalom).