„IAB Workshop on AI-CONTROL” változatai közötti eltérés
(Új oldal, tartalma: „Az Internet Architecture Board, az IETF (Internet Engineering Task Force) egyik bizottsága által első alkalommal 2024. szeptember 19-20. között megtartott worksho…”) |
|||
1. sor: | 1. sor: | ||
− | Az Internet Architecture Board, az IETF (Internet Engineering Task Force) egyik bizottsága által első alkalommal 2024. szeptember 19-20. között megtartott workshopja a nagy nyelvi modellek (LLM) tanításához szükséges adatokat begyűjtő [[crawler]]ek szabályozásáról. A Robots Exclusion Protocol (RFC 9309) szerint a webhely tulajdonosa a [[robots.txt]] fájlban |
+ | Az Internet Architecture Board, az IETF (Internet Engineering Task Force) egyik bizottsága által első alkalommal 2024. szeptember 19-20. között megtartott workshopja a nagy nyelvi modellek (LLM) tanításához szükséges adatokat begyűjtő [[crawler]]ek szabályozásáról. A Robots Exclusion Protocol (RFC 9309) szerint a webhely tulajdonosa a [[robots.txt]] fájlban megadott szabályokkal kontrollálhatja a robotok viselkedését, de ezzel a megoldással jelenleg nem lehet külön kezelni a mesterséges intelligencia (AI) modellek fejlesztéséhez használt crawlereket az egyéb (pl. keresőgépek vagy webarchívumok) által működtetett robotoktól. A workshop célja annak megvizsgálása, hogy az AI célú crawling és scraping milyen módon lehetne jogkövetőbb és etikusabb, milyen mechanizmusokkal lehetne biztosítani, hogy a tartalom tulajdonosa az „opt-out” jogát maradéktalanul érvényesíthesse. |
---- |
---- |
A lap jelenlegi, 2024. szeptember 2., 07:13-kori változata
Az Internet Architecture Board, az IETF (Internet Engineering Task Force) egyik bizottsága által első alkalommal 2024. szeptember 19-20. között megtartott workshopja a nagy nyelvi modellek (LLM) tanításához szükséges adatokat begyűjtő crawlerek szabályozásáról. A Robots Exclusion Protocol (RFC 9309) szerint a webhely tulajdonosa a robots.txt fájlban megadott szabályokkal kontrollálhatja a robotok viselkedését, de ezzel a megoldással jelenleg nem lehet külön kezelni a mesterséges intelligencia (AI) modellek fejlesztéséhez használt crawlereket az egyéb (pl. keresőgépek vagy webarchívumok) által működtetett robotoktól. A workshop célja annak megvizsgálása, hogy az AI célú crawling és scraping milyen módon lehetne jogkövetőbb és etikusabb, milyen mechanizmusokkal lehetne biztosítani, hogy a tartalom tulajdonosa az „opt-out” jogát maradéktalanul érvényesíthesse.