ETD to URLs
A lap korábbi változatát látod, amilyen Admin (vitalap | szerkesztései) 2024. május 27., 14:07-kor történt szerkesztése után volt.
A University of North Texas Libraries munkatársai által írt scriptek, amelyekkel az elektronikus szakdolgozatok és disszertációk gyűjteményébe feltöltött PDF fájlokból kinyerhetők a linkek és archiválhatók a mögöttük levő webtartalmak, így biztosítva, hogy a hivatkozott források hosszú távon is megnézhetők maradjanak. A pdf_link_extractor.py nevű Python script által kigyűjtött URL-ek lementésére a Browsertrix crawlert használják, amit a felparaméterezett browsertrix-crawl.sh fájl indít el. Az archivált tartalom tárolása WACZ formátumban történik, melyet a dolgozat megőrzési csomagjához adnak hozzá.
- Az ETD to URLs a GitHub-on
- [https://netpreserve.org/ga2024/programme/wac/ Lauren Ko - Mark Phillips: Crawling Toward Preservation of References in Digital Scholarship: ETDs to URLs to WACZs