Empêcher l'indexation de son YesWiki par les moteurs de recherche


Il est parfois intéressant de pouvoir limiter l'indexation de son Wiki par les moteurs de recherche.

Pour ce faire :
Il faut agir sur le fichier robot.txt qui se trouve à la racine de votre wiki par FTP.

Editez ce fichier et remplacez
# www.robotstxt.org/
# www.google.com/support/webmasters/bin/answer.py?hl=en&answer=156449

User-agent: *

par
User-Agent: *    
Disallow: /


Voici d'autres exemples de fichier robots.txt :


Exclusion de toutes les pages :
User-Agent: Disallow: / __Exclusion d'aucune page (équivalent à l'absence de fichier robots.txt, toutes les pages sont visitées) :__ User-Agent:
Disallow:

Autorisation d'un seul robot :
User-Agent: nomDuRobot
Disallow :
User-Agent: Disallow: / __Exclusion d'un robot :__ User-Agent: nomdurobot Disallow: / User-Agent:
Disallow:

Exclusion d'une page :
User-Agent: Disallow: /repertoire/chemin/page.html __Exclusion de plusieurs page :__ User-Agent:
Disallow: /repertoire/chemin/page.html
Disallow: /repertoire/chemin/page2.html
Disallow: /repertoire/chemin/page3.html

Exclusion de toutes les pages d'un répertoire et ses sous-dossiers :
User-Agent: *
Disallow: /repertoire/

Indiquer à Google ne ne pas suivre un lien :
<a href="http://www.yeswiki.net" rel="nofollow">ancre du texte de la page wiki</a>