Robots.txt Generator.

By default all robots are

Crawl delay

 

Sitemap URL. Leave blank for none.

Robots are allowed to crawl your site:

 

Restricted directories or files. Relative to root, with trailing slash for dirs.

Your Robots.txt

Il file robot.txt su un sito Web è Aiuta il Webmaster Ignora i file o le directory specificati quando il ragno del motore di trablio che striscia un sito.

Robots.txt Generator ti aiuta a ottenere il file robost.txt più semplice, Wehn ​​selezioni il motore di ricerca consentito e il tempo di ritardo del crawl, immettere l'URL del sito e selezionare i rototi consentiti quindi prendi il codice. Il codice come sotto:

.

User-Agent: *

Non consentire: /

User-Agent: IA_Archiver

Non consentire:

User-Agent: Slurp

Non consentire:

User-Agent: Aport

Non consentire:

User-Agent: Teoma

Non consentire:

User-Agent: Baiduspider

Non consentire:

User-Agent: Twiceler

Non consentire:

User-Agent: Robozilla

Non consentire:

User-Agent: Gigabot

Non consentire:

User-Agent: Googlebot

Non consentire:

User-Agent: GoogleBot-Image

Non consentire:

User-Agent: GoogleBot-Mobile

Non consentire:

User-Agent: mail.ru

Non consentire:

User-Agent: MSNBOT

Non consentire:

User-Agent: PsBot

Non consentire:

User-Agent: Naverbot

Non consentire:

User-Agent: Yeti

Non consentire:

User-Agent: Nuch

Non consentire:

User-Agent: Stackrambler

Non consentire:

User-Agent: Scruby

Non consentire:

User-Agent: Asterias

Non consentire:

User-Agent: Yahoo-Slurp

Non consentire:

User-Agent: Yandex

Non consentire:

Robots.txt Generator.