„Webrecorder” változatai közötti eltérés

Innen: MIA
7. sor: 7. sor:
 
* [https://webrecorder.io A Webrecorder.io szolgáltatás és tárhely]
 
* [https://webrecorder.io A Webrecorder.io szolgáltatás és tárhely]
 
* [https://github.com/webrecorder/webrecorder A Webrecorder a GitHub-on]
 
* [https://github.com/webrecorder/webrecorder A Webrecorder a GitHub-on]
* [https://github.com/webrecorder/webrecorder-desktop/releases Webrecorder desktop változat]
 
 
* [https://github.com/webrecorder/webrecorder-setup Webrecorder Setup]
 
* [https://github.com/webrecorder/webrecorder-setup Webrecorder Setup]
  +
* [https://github.com/webrecorder/webrecorder-desktop/releases Webrecorder desktop változat]
 
* [https://github.com/webrecorder/webrecorderplayer-electron/ Webrecorder Player a WARC fájlok offline nézegetéséhez]
 
* [https://github.com/webrecorder/webrecorderplayer-electron/ Webrecorder Player a WARC fájlok offline nézegetéséhez]
 
* [https://docs.google.com/presentation/d/1ILqpaOataPKAZhaX5LRMddWgIwv2-OnEdtxbiVEBygo Lozana Rossenova - Ilya Kreymer: Remote browsers and archive augmentation]
 
* [https://docs.google.com/presentation/d/1ILqpaOataPKAZhaX5LRMddWgIwv2-OnEdtxbiVEBygo Lozana Rossenova - Ilya Kreymer: Remote browsers and archive augmentation]

A lap 2020. február 7., 10:46-kori változata

A Rhizome non-profit szervezet által 2016 óta fejlesztett és az Andrew W. Mellon Foundation támogatott, Pythonban írt open source program a weben való böngészések archiválására és utólagos visszanézésére (csak a felhasználó által meglátogatott oldalak nézhetők újra). Elsősorban a közösségi média megőrzésére optimális, olyan regisztrációhoz kötött, interaktív, dinamikus, média-gazdag oldalakhoz, amelyekkel a hagyományos crawler-ek és egyéb letöltők nem boldogulnak. Az archív tartalom WARC formában tárolható (és fel- ill. letölthető az WebRecorder.io szerverre, ami 5 GB ingyen tárhelyet ad), a session-ok fájlkezelő-szerű felületen menedzselhetők és megoszthatók másokkal.

2018 körül elkezdődött a Webrecorder továbbfejlesztése olyan irányban, hogy a hagyományos crawlerekhez hasonlóan automatikus aratásokat is lehessen csinálni vele, mert egy nagy site-ot kézzel végigkattintgatni nagyon sok időt és odafigyelést igénylő feladat. Az egyik ilyen első kísérlet az autoscalar.