发新帖

WordPress SEO 之 Robots.txt优化篇

3354 16
因为链接的的指向,而导致网站内容反复,一向是网站引擎优化的大年夜忌。不合的链接指向同一个网页,就会被引擎剖断为作弊。昨天提到的WordPress重定向插件,在必定意义上也是为了阻拦反复内容。然而,因为WordPress的构造原因,往往就会产生网页内容反复的状况。例如:http://www.domain.com/archive/1 和 http://www.domain.com/archive/1/feed两个网址下的内容就是一样的,所以,我们就必须想办法阻拦如许的情况产生。

平日,解决反复内容的办法有:应用noindex标签,应用excerpt实现内容摘要,以及设备robots.txt。今天就重要说说袈溱WordPress下应用robots.txt文件。

robots.txt文件就像一个网站的大年夜门,它会告诉引擎的蜘蛛,可以抓取哪里的网页内容,哪里的不克不及抓取。是以,设备好robots.txt文件,完全可以幻想的组织blog内容反复的问题。robots.txt的具体文法和应用办法,可以参考robotstxt.org。在国内,词攀类的WordPress robots.txt比较风行:


User-agent: *
Disallow: /wp-
Disallow: /feed/
Disallow: /comments/feed
Disallow: /trackback/
Disallow: /?s=
Disallow: /*.php$


User-agent: Googlebot

# Disallow all directories and files within
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/

# Disallow all files ending with these extensions
                                                                                
Disallow: /*.inc$
Disallow: /*.css$

# Disallow parsing individual post feeds, categories and trackbacks..
Disallow: */trackback/
Disallow: */feed/
Disallow: /category/*
Disallow: /*.js$

刚才看到 filination.com膳绫擎提到的一个robots文件,并且供给了简短的解释。方才接触robots.txt文件的同伙,可以参考一下:
Robots.txt因人而异,不合的人对robots有不合的懂得,在加上引擎优化一向是一个热点话题,所以WordPress的robots文件不会是独一的,也不会有一个最好的。大年夜扼如果有认为更好的,不妨分享一下。

精彩评论16

68ue   学习于  2016-6-18 07:36:27
这篇seo文章很不错
SEO服务   学习于  2016-6-18 07:25:02
顶顶多好,多学点优化技巧
tk6j   学习于  2016-6-18 06:47:33
真心顶楼主可否给我的网站做优化
SEO外包   学习于  2016-6-18 06:44:11
不错不错这下会优化网站了
SEO优化   学习于  2016-6-18 06:45:14
LZ真是SEO的人才
特警哥   学习于  2021-2-21 07:04:36
南邵镇公司seo网站关键词优化
北京冰雹   学习于  2021-3-24 06:16:22
茌平seo企业网站优化公司
完美世界   学习于  2021-3-30 23:33:30
网站优化公司是什么意思
翻译   学习于  2021-4-2 14:02:07
郑州中牟县公司网站关键词优化