· 在线留言 · 关于我们
全国7X24小时服务热线:
029-8831-1253
 
当前位置:首页>信息化频道>行业资讯

行业资讯

优化Robots.txt
西安软件公司, 西安软件开发 http://www.jzsoftit.com , 西安网站建设, 西安网站制作 http://www.jzsoftit.cn

一、利用Robots.txt节省服务器带宽
 
  一般来说站长很少去做这样一个设置,然而当服务器访问量大内容过于多的话就有必要做一个设置来节省服务器的带宽,如屏蔽:image这样的文件夹,对于搜索引擎索引来说没有什么实际性的意义还浪费了大量的带宽。如果对于一个图片网站来说,消耗更是惊人的,所以利用Robots.txt可以充分解决这一点。
 
  二、保护网站安全目录
 
  一般来说在设置Robots.txt时都要把管理目录以及数据库、备份目录设置进去,进制蜘蛛的爬行,否则容易造成数据的泄露影响网站的安全。当然还有一些管理员不希望蜘蛛索引的其他目录,同样可以将其进行设置,这样来说搜索引擎就可以严格的遵守这个规则来进行索引。
 
  三、禁止搜索引擎索引页面
 
  一个网站总有一些不希望公众看到的页面,这个时候我们可以用Robots.txt来进行设置,避免蜘蛛对其索引,如前段日子笔者网速比较慢结果更新了一篇文章,导致连续重复发布了3次,结果全部被搜索引擎索引,怎么办呢?重复的内容必然对网站优化是不好的,这时候便可以通过设置Robots.txt来将多余的页面屏蔽掉。
 
  四、Robots.txt链接网站地图
 
  由于蜘蛛访问网站首先查看的便是Robots.txt这个文件,网站推广 那么我们可以将网站地图设置进去,更有利于蜘蛛索引最新的信息,而少走许多冤枉路。如显示专业网站建设公司引航科技的地图页:http://www.****.net.cn/ sitemap.xml这样加到Robots.txt中更是有利于搜索引擎的索引。也不用每天麻烦的到搜索引擎提交地图文件,不是很简便吗?
 
  五、写法及注意事项
 
  对于Robots.txt写法一定要规范,写法上疏忽不注意的人并不在少数。首先来说:User-agent:*是必须要写的,*表示针对所有搜索引擎。Disallow:(文件目录)不包括括号,表示禁止搜索引擎索引的意思,一下举个例子具体说明:
 
  示例1:
 
  User-agent:*
 
  Disallow:/
 
  表示禁止任何搜索引擎索引访问,
 
  示例2:
 
  User-agent:*
 
  Disallow:/seebk
 
  表示禁止搜索引擎索引访问seebk目录
 
  示例3:
 
  User-agent:baiduspider
 
  User-agent:*
 
  Disallow:/
 
  表示只允许百度蜘蛛堆砌索引访问:百度:baiduspider,网站推广 谷歌:googlebot,搜搜:sosospider,alexa:ia_archiver,雅虎:Yahoo Slurp
 
  示例4:
 
  User-agent:*
 
  Disallow:.jpg$
 
  防止盗链jpg图片,如果你的带宽足够的话可以不设置。
 

关于我们  | 果蔬质量追溯系统  | 网站建设  | 网站推广  | 网站运营  | 软件开发  | 软硬件集成  | 软件选型  | 软件外包  | 系统托管  | 成功案例   | IT硬件  | 常见问题  | 在线留言  |  联系方式
  © 2005 www.jzsoftit.com  西安捷众软件科技有限公司 版权所有
地址:西安市高新区科技路东口中天国际B座19层 电话:029-88311253   QQ:1009213309  Email:jzsoftit@163.com