robots.txt的是一個可視化編輯器機器人排除文件和日誌分析軟件。它允許用戶快速輕鬆地創建指示搜索引擎蜘蛛,這是一個網站的一部分,不應被編入索引,由一般的Web公眾進行搜索所需要的的robots.txt文件,然後找出蜘蛛,這不堅持這些指令。該程序提供給用戶的方式登錄到他的FTP或本地網絡服務器,然後選擇文件的,哪些是不被可搜索目錄。通過這一計劃的手段,你將能夠在視覺上產生行業標準的robots.txt文件;識別惡意和不必要的蜘蛛,並禁止他們從您的網站;直接搜索引擎抓取到相應的頁面多語言網站;讓蜘蛛您的網站的敏感和私人領域;追踪蜘蛛訪問等。免費program`s更新和升級無限制的時間; 。無限數量的網站與合作
要求:
的Windows 98 / ME / NT / 2000 / XP / 2003服務器
評論沒有發現