Accions
Tasca #6593
tancat
FJ
CA
Procurar que pes pàgines web capturades no es puguin confondre amb les originals, via robots.txt
Tasca #6593:
Procurar que pes pàgines web capturades no es puguin confondre amb les originals, via robots.txt
Estat:
Tancada
Prioritat:
Normal
Assignat a:
Categoria:
Tecnologia
Temàtica prevista:
Inici:
16-07-2021
Data de venciment:
29-07-2022
Paraula clau:
Descripció
Al DDD hi tenim un nombre creixent de pàgines web, algunes capturades amb tota la fidelitat que permeten eines com wget (https://www.gnu.org/software/wget/). Això fa que siguin visualment indistingibles de l'original, i pot portar a confusió en dos sentits:
- Que els cercadors (és a dir, Google) els ofereixin com a resultat de la cerca en una posició que pugui confondre els usuaris.
- Que els usuaris no se n'adonin que és una captura.
No estic segur de trobar una solució a la segona que no tingui més inconvenients que avantatges, però per la primera crec que només es tractaria de posar cadascuna aquestes pàgines (el directori, de fet) al fitxer https://ddd.uab.cat/robots.txt.
- http://www.robotstxt.org/
- https://ca.wikipedia.org/wiki/Protocol_d'exclusió_de_robots
- https://developers.google.com/search/docs/advanced/robots/create-robots-txt
He creat aquesta tasca per consensuar l'estratègia i apuntar quines pàgines volem que constin a robots.txt
Accions