山西省自然科学基金(2013011017-6)
- 作品数:11 被引量:19H指数:3
- 相关作者:周海英王守义杨阳杨阳赵欣更多>>
- 相关机构:中北大学北京科技大学更多>>
- 发文基金:山西省自然科学基金国家自然科学基金更多>>
- 相关领域:自动化与计算机技术更多>>
- 基于积分图的随机蕨特征点识别算法被引量:2
- 2014年
- 随机蕨算法中的二值特征集是通过比较像素对的亮度值获得的;而该方法容易出现噪声敏感问题,为此提出了一种基于积分图的随机蕨特征点识别方法。通过构建图像积分图,比较特征点周围随机获取的两个子窗口的积分图构造二值特征,以模板图像的仿射变换图像簇作为训练集,建立朴素贝叶斯分类器并进行训练。对比实验表明,改进的算法在特征匹配上有很强的抗干扰性,即使蕨的结构减小到一定程度,也有较高的特征识别率。
- 郭玉杰周海英武敬民
- 关键词:分类器积分图
- 基于卷积特征的核相关自适应目标跟踪被引量:4
- 2017年
- 目的针对现实场景中跟踪目标的快速运动、旋转、尺度变化、遮挡等问题,提出了基于卷积特征的核相关自适应目标跟踪的方法。方法利用卷积神经网络提取高、低层卷积特征并结合本文提出的核相关滤波算法计算并获得高底两层卷积特征响应图。采用Coarse-to-Fine方法对目标位置进行估计,在学习得到1维尺度核相关滤波器估计尺度的基础上实时更新高低两层核相关滤波器参数,以实现自适应的目标跟踪。结果实验选取公开数据集中的典型视频序列进行跟踪,测试了算法在目标尺度发生变化、遮挡、旋转等复杂场景下的跟踪性能并与多种优秀的跟踪算法在平均中心误差、平均重叠率等指标上进行了定量比较,在Singer1、Car4、Jogging、Girl、Football以及MotorRolling视频图像序列上的中心误差分别为8.71、6.83、3.96、3.91、4.83、9.23,跟踪重叠率分别为0.969、1.00、0.967、0.994、0.967、0.512。实验结果表明,本文算法与原始核相关滤波算法相比,平均中心位置误差降低20%,平均重叠率提高12%。结论采用卷积神经网络提取高低两层卷积特征,高层卷积特征用于判别目标和背景,低层卷积特征用于预测目标位置并通过Coarse-to-Fine方法对目标位置进行精确的定位,较好地解决了由于目标的旋转和尺度变化带来的跟踪误差大的问题,提高了跟踪性能并能够实时更新学习。在目标尺度发生变化、遮挡、光照条件改变、目标快速运动等复杂场景下仍表现出较强的鲁棒性和适应性。
- 王守义周海英杨阳
- 关键词:目标跟踪相关滤波器核函数
- 基于语义联想和视觉焦点的场景目标识别
- 2016年
- 为改进传统识别方法中各种分类器对目标区域分类错误的状况,在分类器中加入语义联想的机制,通过语义网的语法结构对分类出错的区域进行重新分类,直到将目标区域分类满足语法结构;为实现多目标的准确定位,引入视觉焦点吸引力的概念,通过分块操作提取最佳吸引力点来定位目标。实验结果表明,这两个改进将目标识别率提高了2%-8%,实现了对复杂场景中遮挡的多目标数目的确定和具体位置的定位。
- 降小龙周海英
- 关键词:语义联想目标检测目标识别
- 基于多特征融合的显著性跟踪算法被引量:2
- 2017年
- 针对在线视觉跟踪中的高效特征提取以及模型漂移的问题,提出了一种基于显著性检测的核相关滤波器(KCF)跟踪算法。将颜色特征(CN)和方向梯度直方图(HOG)进行加权融合;并自适应地调节每种特征的权重。对于模型漂移问题,受生物视觉机制的启发,通过视觉显著性算法获得目标的显著区域;并在该区域内进行采样,实现了全局范围搜索,避免陷入局部极大值。此外,引入了一种基于关键点的模型来解决目标尺度固定的问题。为验证提出算法的有效性,在50个视频序列上与近年来的5种优秀算法进行了对比。实验结果表明,与以往算法相比,该算法在成功率和中心位置误差上都取得较好的效果;而且能有效地缓解目标模型漂移问题。
- 杨阳周海英王守义
- 关键词:目标跟踪多特征融合变尺度显著性检测
- 动态场景中视觉元素的注意序列表达及目标识别
- 2015年
- 为有效表达动态场景中的目标,实现对该目标的实时识别和判断,提出用注意序列来表达动态场景中视觉元素的方法。利用一组视觉元素构造观测向量,组成注意序列,注意序列的每一个观测向量是对视网膜中央凹滤波器响应的编码,有效表征视频图像的特征集,可以实现移动机器人对目标的识别。实验结果表明,注意序列可以充分表达动态场景,通过比较当前的观测向量和经过训练的平均观测向量,在数次扫视后可以快速实时地实现移动机器人对目标的有效识别和判断。
- 赵利萍周海英
- 关键词:目标识别视觉元素
- 一种结合深度信息的人体行为识别方法被引量:4
- 2017年
- 针对现有的人体行为识别方法中易受到噪声、光照以及复杂背景等因素的影响,同时,未充分考虑到人体交互区域的作用。提出一种结合普通彩色视频和深度信息的人体行为识别方法。首先,对于识别中提取人体运动目标时,利用深度图中物体表面法向量提取运动目标的边缘;同时结合加权累计帧差法获取运动模板。其次,结合深度连续性提取非人体区域(人体与动作的交互区域)并进行描述,作为人体行为表示的一部分。最后利用支持向量机(support vector machine)进行训练和识别。实验部分在CAD-120数据集中测试,通过与一些现有的人体行为识别方法相比较,动作识别准确率提高了5%左右。
- 赵欣周海英
- 关键词:人体动作识别支持向量机
- 基于背景约束机制的目标识别方法及图像语义抽取被引量:3
- 2016年
- 多数图像目标识别过程只对主要目标物进行提取,再分类识别,造成图像背景信息丢失,为此提出一种背景约束机制(background restraint mechanism)下的目标识别方法。通过视觉注意模型分别提取图像的前景目标物和背景信息,实现图像的前景目标物与背景分离,通过对背景图像信息的提取识别形成对前景目标物的概率约束。将此约束机制引入分类器中形成一种BRM_GAM(background-restraint-mechanism_Gaussian ARTMAP)分类模型,对前景目标物进行分类识别。实验结果表明,该方法有较好识别效率和时效性,符合人类认知。此外,提出一种利用GAM模型提取图像语义字典直方图,进行图像语义抽取的方法。
- 陈文杰周海英
- 关键词:目标识别背景信息视觉注意模型图像语义
- 基于区域色彩空间和LBP算法的图像分割被引量:1
- 2015年
- 提出一种基于区域色彩空间和LBP算法的图像分割.该算法用颜色和LBP直方图作为区域描述符,量化HSV颜色空间,并根据LBP算法的Uniform模式,利用较少的LBP算子描述大部分纹理特征,有效降低了区域特征矢量的维数,提高了区域相似度计算的执行效率.此算法能有效地将对象从复杂图像场景中分割提取出来,且结果与人眼的主观视觉有良好的一致性,在轮廓细节和执行效率上比MRSM算法更优.
- 张竹伟周海英
- 关键词:图像分割LBP算子
- 图像理解中的视觉感知与图像的关联组织
- 2014年
- 对注意力焦点附近的图像片进行视觉关联学习,建立视觉特征与语义特征之间的感知联系,使图像的视觉感知行为和图像理解的认知行为连成一个整体,模拟人类的认知行为过程.自底向上的特征映射和自顶向下的语义判定相结合,建立了图像与语义类别之间的基础框架联系.在用户对查询结果的反馈中,保留正相关的图像剔除负相关图像,动态地实现了不同查询要求下图像数据的重组.实验表明,在基础框架之下,多层次语义群组关联和多框架协同能够较好地复用了原有框架组织下的结果,有效地实现了视觉感知、语义理解和查询案例之间的联系,满足了图像柔性检索的需要.
- 周海英穆志纯
- 关键词:图像理解视觉感知语义关联
- 改进的核相关自适应目标跟踪算法及其实验验证被引量:3
- 2018年
- 为了解决目标跟踪中出现的快速运动、尺度变化、遮挡等问题,提出基于遮挡检测的核相关自适应目标跟踪。该方法首先利用核函数对正则化最小二乘分类器求解获得核相关滤波器;其次利用核相关滤波器计算特征响应图,同时学习一维尺度滤波器对尺度进行估计;最后,通过响应图的最大值和振荡程度来判断目标是否被遮挡;在未受到遮挡的情况下,更新学习目标的外观模型和尺度模型,实现自适应目标跟踪。在公开的标准数据集上的实验结果表明,相比原始核相关滤波算法,平均中心位置误差降低15%,平均重叠率提高10%;且在目标尺度发生变化、遮挡、光照变化、快速运动等复杂场景下有较强的鲁棒性、适应性。
- 周海英王守义杨阳
- 关键词:目标跟踪相关滤波器核函数