基于改进RPN深度网络的端到端的监控场景行人检测方法
基本信息
申请号 | CN201710187003.4 | 申请日 | - |
公开(公告)号 | CN108664838A | 公开(公告)日 | 2018-10-16 |
申请公布号 | CN108664838A | 申请公布日 | 2018-10-16 |
分类号 | G06K9/00;G06K9/32;G06K9/62;G06K9/46;G06N3/08 | 分类 | 计算;推算;计数; |
发明人 | 葛水英;陆钧;马琳靖 | 申请(专利权)人 | 北京中科视维文化科技有限公司 |
代理机构 | - | 代理人 | - |
地址 | 100080 北京市海淀区中关村东路95号中国科学院自动化研究所智能化大厦4层406室 | ||
法律状态 | - |
摘要
摘要 | 本发明公开了一种基于改进RPN深度网络的端到端的监控场景行人检测方法,其中,该方法包括步骤1:利用简化VGG16深度卷积网络进行行人监控场景图像的特征图计算;步骤2:利用RPN(Region Proposal Network)网络来提取特征图中的行人区域候选框;步骤3:依据RPN网络获取到的候选窗,利用ROI pooling操作计算目标窗口得分,通过设定阈值,最终将ROIs(region of interest)分成目标或背景区域;步骤4:基于上述三个步骤得到的改进的RPN深度网络,采用递进式的头肩模型训练,完成整个端到端的行人检测网络的参数计算。通过本发明的方法,可以使得监控场景行人检测的实时性和准确率得到大幅提升。 |
