„Client-side web archiving” változatai közötti eltérés

Innen: MIA
(Új oldal, tartalma: „A leggyakoribb webarchiválási módszer, mert egyszerű megvalósítani és jól skálázható. Csak egy crawler, vagy valamilyen letöltőprogram, esetleg csak eg…”)
 
 
1. sor: 1. sor:
A leggyakoribb webarchiválási módszer, mert egyszerű megvalósítani és jól skálázható. Csak egy [[crawler]], vagy valamilyen letöltőprogram, esetleg csak egy webböngésző vagy egy [[headless browser]] kell hozzá, ami kéréseket intéz a webszerverhez a HTTP protokollon keresztül, és a visszakapott fájlokat valahová elmenti. A [[crawler]]rel való aratás nagyon hatékony, de megvan az a hátránya, hogy nem mindenhez fér hozzá (lásd: [[deep web]]\). Ha browsert használunk kliensnek, akkor nagyobb valószínűséggel és hűséggel lehet egyes oldalakat megőrizni, mert azzal jobban szimulálható egy emberi felhasználó viselkedése
+
A leggyakoribb webarchiválási módszer, mert egyszerű megvalósítani és jól skálázható. Csak egy [[crawler]], vagy valamilyen letöltőprogram, esetleg csak egy webböngésző vagy egy [[headless browser]] kell hozzá, ami kéréseket intéz a webszerverhez a HTTP protokollon keresztül, és a visszakapott fájlokat valahová elmenti. A [[crawler]]rel való aratás nagyon hatékony, de megvan az a hátránya, hogy nem mindenhez fér hozzá (lásd: [[deep web]]). Ha browsert használunk kliensnek, akkor nagyobb valószínűséggel és hűséggel lehet egyes oldalakat megőrizni, mert azzal jobban szimulálható egy emberi felhasználó viselkedése
   
 
[[Category:FOGALMAK]]
 
[[Category:FOGALMAK]]

A lap jelenlegi, 2018. június 24., 18:52-kori változata

A leggyakoribb webarchiválási módszer, mert egyszerű megvalósítani és jól skálázható. Csak egy crawler, vagy valamilyen letöltőprogram, esetleg csak egy webböngésző vagy egy headless browser kell hozzá, ami kéréseket intéz a webszerverhez a HTTP protokollon keresztül, és a visszakapott fájlokat valahová elmenti. A crawlerrel való aratás nagyon hatékony, de megvan az a hátránya, hogy nem mindenhez fér hozzá (lásd: deep web). Ha browsert használunk kliensnek, akkor nagyobb valószínűséggel és hűséggel lehet egyes oldalakat megőrizni, mert azzal jobban szimulálható egy emberi felhasználó viselkedése