论文部分内容阅读
robots协议也称爬虫协议、爬虫规则等,是指网站可建立一个robots.txt文件来告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取,而搜索引擎则通过读取robots.txt文件来识别这个页面是否允许被抓取。但是,这个robots协议不是防火墙,也没有强制执行力,搜索引擎完全可以忽视robots.戗t文件去抓取网页的快照。那么,当百度基于robots协议诉奇虎不正当竞争时,法院该判令奇虎遵守robots协议吗?文章以此案例导出,通过对robots协议的法律性质作出认定,从行业惯例的角度去分析robots协