Robots.txt è un editor visuale per Robot Exclusion file e un software di analisi dei log. Esso consente all'utente di creare rapidamente e facilmente i file robots.txt necessari per istruire gli spider dei motori di ricerca, che sono parti di un sito Web non devono essere indicizzati e resi consultabile dal pubblico Web in generale e poi identificare i ragni, che non lo fanno tenere a tali istruzioni. Il programma fornisce all'utente un modo per accedere suo server di rete FTP o locale e quindi selezionare i documenti e le directory che non sono da effettuare la ricerca. Per mezzo di questo programma sarete in grado di generare visivamente settore file robots.txt standard; identificare i ragni dannosi e indesiderati e vietare loro dal tuo sito; diretti crawler dei motori di ricerca alle pagine appropriate per siti multilingue; tenere ragni fuori delle aree sensibili e private del sito Web; tenere traccia delle visite ragno e altro ancora. Aggiornamenti programma `e upgrade gratuiti senza restrizioni in tempo; . numero illimitato di siti web per lavorare con
Requisiti :
Windows 98 / Me / NT / 2000 / XP / 2003 Server
I commenti non trovato