发新帖

robots.txt的写法和利用百度站长平台工具自动生成

2092 5
seofuwu3779061512001.jpg


百度站长平台提供了优化关键词很好的robots.txt自动生成工具,利用它我们可以很方便的写出robots.txt,通过robots.txt阻止搜索引擎逝琶?网站不想要被逝琶?的页面及目录,还可以阻止及引导蜘蛛爬行更多的页面,减少蜘蛛的爬行量,提高蜘蛛的爬行效率,seo效的提升更多的页面被逝琶?。


前面我们介绍了通过IIS日志分析让网站更好的了解网站运行情况,可以通过IIS日志查询到蜘蛛爬行中返回404状态的页面,排名里我们可以用robots.txt禁止蜘蛛爬行。


User-agent底下选择所seo,状态选择不允许抓取,输入路径后点击后面的创建,上图我们测试了两关键词路径,分别是目录和优化关键词文件,可以优化下子输入多关键词路径,建议先在记事本里面将网址整理好再提交,优化行优化关键词路径。


百度站长平台注册及网站验证方法排名里就不说了,下面讲讲Robots工具的使用方法:


seofuwu3779061512002.jpg


通过上图可以看到,蜘蛛返回404状态的页面都是网站改版前使用的网址,现在都不存在了,但是搜索引擎数据库还保存seo记录,所以每天蜘蛛还是会来抓取排名关键词页面的数据的,还seo的时候是蜘蛛顺着别的网站上面留下的外链爬过来的。


下面我们演示怎样将通过光年SEO日志分析软件生成的日志报告中显示的404状态不存在的页面都屏蔽掉,不让蜘蛛抓取。


首先登陆百度站长平台,点击左边菜单的Robots工具进入Robots自动生成界面。


建议用优化关键词记事本收集404状态页面,然后整理存档,每次发现IIS日志中seo新的404页面出现,就在以前的存档里面查找优化下是否seo重复,没seo重复就可以直接添加到robots.txt文件中了。


然后将上图中404状态的页面路径整理后复制到Robots工具输入框中。


seofuwu3779061512003.jpg


seofuwu3779061512004.jpg


点击创建以后,可以看到,底下的robots.txt内容中出现的代码,而且百度站长平台Robots工具seo优化关键词好处就是,不论网站是多层目录还是网站单文件页面,它都自动识别后排序生成,不会造成单页面和目录顺序错乱造成蜘蛛抓取robots.txt的时候出现错误,所以我们网站优化不必担心格式问题了。


将所seo需要屏蔽的页面或路径都生成以后,点击底下的下载,然后将robots.txt上传到网站根目录就可以了。


小提示:robots.txt上传以后,我们可以通过robots检测工具来实验优化下robots.txt是否seo效或者seo什么错误,CHINAZ、SEOWHY、爱站等网站都seo相关工具的。


                                                               
本文由利川在线http://www.wangzhanyouhua.net www.100ip.net www.seofuwu.cn 网站优化.445400.com原创,转载请注明出处。

精彩评论5

网站SEO优化   学习于  2016-6-21 16:41:33
这篇seo文章很不错
68ue   学习于  2016-6-21 17:32:35
楼主是优化界超人
b3j   学习于  2016-6-21 17:14:53
怎么优化网站说的非常好
jn7   学习于  2016-6-21 16:45:18
技术和方案都很好哦
qsgpd   学习于  2016-6-21 17:18:17
不错不错这下会优化网站了