====== Robots.txt ====== ===== Information ===== Fichier servant de directive aux robots d'indexation. Un robot n'a aucune obligation de respecter ce fichier. ===== Exemples ===== Ne rien référencer, pour tout les robots. User-agent: * Disallow: / Ne pas référencer un répertoire ou page, juste pour GoogleBot. User-agent: Googlebot Disallow: /repertoire-a/ Disallow: /page-b.html Attention ! Ce fichier est public, n'importe qui peut voir son contenu. Attention à ce que vous mettez (dossiers sensibles par exemple). ===== Liste de bots agressifs ===== Voici une liste de bots agressifs que l'on peut définir : # http://www.opensiteexplorer.org/dotbot User-agent: dotbot Disallow: / # https://ahrefs.com/robot/ User-agent: AhrefsBot Disallow: / # These fools don't even respect robots.txt User-agent: QuerySeekerSpider Disallow: / # http://www.picsearch.com/bot.html User-agent: psbot Disallow: / # http://webmeup-crawler.com/ User-agent: BLEXBot Disallow: / # http://sentibot.eu/ User-agent: sentibot Disallow: / # http://openlinkprofiler.org/bot User-agent: spbot Disallow: / # http://www.crazywebcrawler.com/ User-agent: CrazyWebCrawler-Spider Disallow: / # https://ranksonic.com/ranksonic_bot.html User-agent: RankSonicBot Disallow: / # http://www.seokicks.de/robot.html User-agent: SEOkicks-Robot Disallow: /