wordpress robots插件如何设置最佳robots.txt

文章标签:
抱歉,评论被关闭wordpress如何设置最佳robots.txt_百度知道
wordpress如何设置最佳robots.txt
提问者采纳
jpg" esrc="http:
其他类似问题
为您推荐:
wordpress的相关知识
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁WordPress的robots.txt的SEO优化 - No牛网
No牛网专注分享网站源码、网站模板、建站教程等站长资源
WordPress的robots.txt的SEO优化
WordPress程序的好我就不说了,今天专门来说下Wordpress的robots.txt文件的SEO优化。先声明一下,No牛网不是专门做SEO的,只是对SEO有所了解,所以这篇WordPress的robots.txt的SEO优化的文章,大家做一下参考即可。如果关于Wordpress的robots.txt的优化大家有什么别的看法、意见,也欢迎在本文章后面评论提出。
先说一下No牛网做的这个SEO优化的原则,就是集中网站的权重,让搜索引擎抓取有价值的东西,减少网站主机的带宽和资源消耗。这个我想是任何一个网站的robots.txt文件所要做的优化。下面先提供No牛网自己的robots.txt文件:
User-Agent: *#允许所有的搜索引擎抓取网站Allow: /wp-content/uploads/#允许/wp-content/uploads/目录被抓取,这个目录是网站的图片等附件Disallow: /cgi-bin/#不允许抓取/cgi-bin/目录,这个是一个主机的什么目录Disallow: /wp-*#不允许抓取任意wp-开头的目录,因为都是Wordpress系统程序等,自定义链接的时候也不要以wp-开头Disallow: /*/trackback/#不允许抓取任意目录的Ping功能地址Disallow: /feed/#不允许抓取网站的RSS订阅地址Disallow: /*/feed/#不允许抓取网站栏目的RSS订阅地址Disallow: /comments/#不允许抓取网站的评论地址Disallow: /*/comments/#不允许抓取网站栏目的评论地址Disallow: /page/#不允许抓取网站的分页Disallow: /*/page/#不允许抓取网站栏目的分页Disallow: /*.js$#不允许抓取网站的js文件Disallow: /*.css$#不允许抓取网站的css文件Disallow: /*?*#不允许抓取网站的动态地址Disallow: /avatar/#不允许抓取avatar目录Sitemap: /sitemap.xml#向搜索引擎提交网站地图
No牛网已经对上面的robots.txt文件进行了逐句解释。之所以要禁止这些目录抓取,大家应该有自己的看法,可以自己在后面添加或者删除某些目录禁用抓取。对于禁止网站分页的抓取,No牛网是觉得那样会分散网站的权重,所以就禁止网站分页抓取。如果你有不同的意见,可以自己修改robots.txt文件,No牛网提供的只作为参考。特别强调一下,修改上传之后,一定要用谷歌或者百度的站长工具测试一下,特别是谷歌的站长工具,功能很强大的。
以上就是No牛网关于WordPress的robots.txt的SEO优化的全部内容,如果你是用的其他的程序建的网站,也需要考虑一下网站的robots.txt文件的优化,这个很重要哦。
关键词阅读}

我要回帖

更多关于 设置允许robots.txt 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信