Projecte

General

Perfil

Accions

Tasca #6593

tancat
FJ CA

Procurar que pes pàgines web capturades no es puguin confondre amb les originals, via robots.txt

Tasca #6593: Procurar que pes pàgines web capturades no es puguin confondre amb les originals, via robots.txt

Afegit per Ferran Jorba fa més de 4 anys. Actualitzat fa aproximadament 3 anys.

Estat:
Tancada
Prioritat:
Normal
Assignat a:
Categoria:
Tecnologia
Inici:
16-07-2021
Data de venciment:
29-07-2022
Paraula clau:

Descripció

Al DDD hi tenim un nombre creixent de pàgines web, algunes capturades amb tota la fidelitat que permeten eines com wget (https://www.gnu.org/software/wget/). Això fa que siguin visualment indistingibles de l'original, i pot portar a confusió en dos sentits:

  • Que els cercadors (és a dir, Google) els ofereixin com a resultat de la cerca en una posició que pugui confondre els usuaris.
  • Que els usuaris no se n'adonin que és una captura.

No estic segur de trobar una solució a la segona que no tingui més inconvenients que avantatges, però per la primera crec que només es tractaria de posar cadascuna aquestes pàgines (el directori, de fet) al fitxer https://ddd.uab.cat/robots.txt.

He creat aquesta tasca per consensuar l'estratègia i apuntar quines pàgines volem que constin a robots.txt

Accions

També disponible a: PDF Atom