该插件目前已下架帆软市场,本文档仅提供给历史使用了该插件的客户,帆软目前不再提供该插件的任何获取渠道。
1. 概述
1.1 版本
报表服务器版本 |
插件版本 |
10~11.0 |
V1.0 |
1.2 应用场景
robots协议也称爬虫协议、爬虫规则等,是指网站可建立一个robots.txt文件来告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取,而搜索引擎则通过读取robots.txt文件来识别这个页面是否允许被抓取。但是,这个robots协议不是防火墙,也没有强制执行力,搜索引擎完全可以忽视robots.txt文件去抓取网页的快照。 如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据(Metadata,又称元数据)。
Finereport自带的”决策平台“本身就是javaweb工程,为了方便员工在公司外使用,有时候公司会部署到外网,有概率被搜索引擎收录,在搜索企业关键词时被显示,造成数据泄露损失。
1.3 功能描述
-
可直接通过决策系统编辑规则
-
预设通用搜索引擎配置及默认规则
-
支持自定义robots规则
-
支持robots配置内容的备份与恢复
2. 插件介绍
-
1.通过系统管理->搜索引擎 进入设置界面
-
2.用户自定义规则或通过规则配置增加配置信息
-
3.保存成功后可通过 ***/webroot/robots.txt 查看内容

3. 注意事项
1. robots协议并不是一个规范,而只是约定俗成的,所以并不能保证网站的隐私。
2. 在服务端需将/webroot/robots.txt直接映射至ip或域名下 如 **.com/robots.txt 才可被搜索引擎搜索。
|