您当前的位置:主页 > 教程合集 > SEO优化网站利发国际SEO优化

robots文件是否支持中文目录

发布时间:2016-11-02编辑:余斗阅读:(0)字号:
    有同学问百度站长学院一个关于robots的问题:我们有个站点的目录结构使用的是中文,这样式儿的:www.a.com/冒险岛/123.html,那在制作robots文件和sitemap文件的时候,可以直接使用中文吗?百度能获取到吗?在实际操作中我们发现,sitemap中有文件是可以生效的,但robots封禁貌似没有反应,所以想确认一下:robots文件是否支持中文? 工程师解答:Baiduspider目前(2016年10月)在robots里是不支持中文的。 同学追问:那我们进行UrlEncode编码会不会支持呢?比如这种:http://www.a.cn/%E7%89%B9%E6%AE%8A:%E6%B5%8F%E8%A7%88/%E7%94%9F%E6%AD%BB%E7%8B%99%E5%87%BB:%E7%99%BD%E9%93%B6%E5%8A%A0%E7%89%B9%E6%9E%97 工程师解答:robots文件支持这种写法。但是否生效,还要取决于当时BaiduSpider抓取的是哪种形式结构的链接,如果是UrlEncode编码就可以生效,如果是中文就非常不幸了。
关键字词robots中文目录
余斗余斗
  1. 转载请注明:robots文件是否支持中文目录
  2. 版权声明:本站原创文章,由发表在SEO优化分类下,于2016-11-02最后更新
网站在百度搜索结果中摘要不为description的原
2016年末盘点——百度搜索算法更新史
手机扫一扫 随身带着看

利发国际

百度360搜索搜狗搜索