本文讲解关于估计体重3038g 443g和估计体重2637+385g的题,希望能帮助到大家。


中图分类号TP393

文件识别码A

1016157/jissn0258-7998173038

胡庆松,张亮人体行为序列识别算法研究[J]电子技术应用,2018,444:122-125,129

英文引文格式胡青松,张亮基于骨架图的人体行为序列化识别研究[J]电子技术应用,2018,444:122-125,129

0前言

随着科学技术的发展,计算机的计算能力得到了很大的提高,大数据的处理也逐渐实现。在此基础上发展起来的人体行为和姿势识别[1],为人机交互、视频监控、智能家居等方面的应用提供了基础。近年来,研究人员在人类行为识别方面做了大量的研究工作,取得了许多重要成果,但复杂人类行为的识别准确率较低,仍需提高。

基于视觉的人类行为识别方法[2]可以分为两类,一类是基于模板匹配的[3],另一类是基于机器学习的[4]。基于模板匹配的方法计算当前动作与模板库中模板的相似度,将当前模板确定为最相似动作的过程。IBANEZR和SORIAA等人。提取人体肢体行为轨迹,分别采用动态时间规整和隐马尔可夫算法,基于模板匹配进行人体行为识别[5]。基于机器学习的方法通过提取样本特征来训练样本以获得分类器,该分类器具有预测未知样本的能力。TRIGUEIROSP和RIBEIROF等人比较了几种机器学习算法在手势识别中的应用[6]。然而,这些算法都是针对特定行为而设计的。当需要检测额外的行为时,需要重新设计方案,且可扩展性较差。

在本文中,从Kinect[7]收集的骨骼图数据由MSRC-12手势数据集数据库[8]提供。Kinect提取的骨骼图像可以克服光强等外界因素造成的干扰,具有较强的鲁棒性;提取骨骼特征,利用机器学习算法对静态动作进行分类,最终形成序列;从序列中找出需要识别的动作序列的过程可以代表动态动作识别过程,具有良好的实时性和可扩展性。

1基于骨架图的特征提取

选择能够充分代表某种人体动作且不包含过多冗余信息的人体特征特征提取对于行为识别的研究是非常有价值的。本文根据人体力学理论,通过提取4个关节点向量、5个关节点角度和4个关节点距离系数来表达人体行为姿势。

11关节点向量的提取

如图1所示,四个关节点向量分别是左上臂VSL-EL、右上臂VSR-ER、左大腿VHL-KL和右大腿VHR-KR。现在以左上臂为例,计算左上臂向量。已知左肩ShoulderLeft关节点坐标为SLSx、Sy、Sz,左肘ElbowLeft关节点坐标为ELEx、Ey、Ez,那么左肩关节点向量的计算方法左上臂如式1所示。其他关节点向量依此类推。

12关节点角度提取

根据原始向量提取4个关节点角度。结合关节点向量,可以描述人体左前臂、右前臂、左小腿、右小腿的活动状态。图1中,EL、ER、KL、KR分别表示左肘关节的角度、右肘关节的角度、左膝关节的角度、右膝关节的角度。HC表示从臀部中心到头部的向量与垂直方向向量之间的夹角,可以表示人体姿势的弯曲程度,描述整个躯干的活动状态。夹角可由式2计算。

其中,V1和V2分别表示两个关节点向量,表示这两个关节点向量之间的角度。

13关节点距离系数的提取

为了使选取的特征对上肢手部动作更加敏感,本文添加了4个关节点距离系数。图1中,a为从髋部中心到头部的关节向量,b为从头部到右手的关节向量,c为从头部到左手的关节向量,d为从头部到左手的关节向量。髋中心到右手,e是从髋中心到右手的关节向量。左手的关节向量。通过公式3可以得到头部到左右手的相对距离系数d1和d2以及臀部中心到左右手的相对距离系数d3和d4。

至此,基于骨架图的特征可以表示为式4所示的特征矩阵,共有43+5+4=21维。

2基于SVM的识别算法流程

21静态运动的SVM识别

支持向量机[9]是一种分类算法,可以找出多维空间中完美划分事物的超平面。本文采用SVM进行动作分类。以二元分类支持向量机为例,已知训练样本集T

使用多个二元分类器组成多分类器,利用丰富的样本进行训练,识别人体静态姿势。

22动态动作的序列化识别

设置一定的采样频率,提取出的每一帧骨骼图像都会以静态的方式呈现。对骨架图的每一帧进行静态动作识别,可以获得一个长序列。在长序列中找到需要识别的序列就是动态动作识别。如图2所示,一组举手举手的动作可以分解为G1、G2、G3三个静态动作,因此只要在检测到G1、G2、G3三个连续的静态动作即可。长序列中,可以判断出现“举手”的动态动作。

23分类纠错过程

为了减少静态姿态识别误差对动态动作识别精度的影响,提出一种基于前后信息的姿态校正算法。一般来说,两个或多个相邻帧的数据描述相同的动作。算法流程图如图3所示,其中predict是分类器预测的结果,sequence是最终的长序列。首先判断当前预测结果与长序列尾部数据是否相同。如果相同,则表示当前动作与上一帧动作相同,并将预测结果添加到长序列尾部;如果不相同,则需要验证当前的预测结果是否错误。该算法判断当前动作后n帧预测结果中出现次数最多的数据是否等于当前动作预测结果,以及其所占比例是否大于某个阈值。本文选择05。如果是,则将当前动作预测结果添加到长序列队列中;如果不是,则说明当前动作预测结果是错误的,长序列的尾部数据保持不变。

3实验验证

31训练静态动作

MSRC-12GestureDataset是微软提供的数据库,包含12组动作。本文选择了三组动作,分别是Startsystem、Duck和Pushright,如图2、图4和图5所示。

显然,大多数志愿者对于某个静态动作并没有保持统一的时间。为了合理利用资源并方便处理,姿势分为两种状态进度状态和保持状态

1渐进状态是一组动作的中间状态,即两个静态姿势的过渡,可以包括运动过程中大范围的运动姿势。图2中的G2和图5b中的G5是渐进状态。由于进展状态对决策结果起不了决定性作用,因此进展状态不需要很高的识别精度。

2握持状态是一组动作中长时间保持的状态,对手势的识别能起到决定性作用,因此需要较高的识别准确率。图2a中的G1、图2c中的G3、图4b中的G4和图5c中的G6都属于保持状态。实验中,从10人中选取了600帧G1姿势,从5人中选取了550帧G2、G3、G4、G5和G6姿势,总共使用3350帧数据来训练分类器。SVM识别结果如表1所示。

32静态动作结果分析

通过十倍交叉验证方法测试分类器的性能,最终平均识别精度为9312。表1给出了单个姿势的识别精度。从表1可以看出,握持状态下手势识别的准确率普遍在90%以上,达到了较高的准确率。行进状态下的姿态识别准确率略低于握持状态下的姿态识别,但是从前面可以看出,这对最终的判断结果影响不大。

33序列纠错

使用第23节中描述的方法来校正姿势序列。不失一般性,以实验中的3350帧数据中随机选取150帧数据为例,如图6所示。在原始序列的第30帧左右,从位姿到过渡阶段存在较多误分类2到姿势3。图6是使用23段方法进行纠错后的序列。可以看到整个序列变得平滑了很多,抑制了上述的分类错误,极大的方便了后续的动作识别。

34态动作识别验证

为了分析方便,将纠错数据中连续n个“1”用一个“1”表示,其他态度以此类推。以启动系统为例,当检测到连续1、2、3或1、3时,可以确定发生了一组启动系统动作,当连续1、2、3、2、1、1、2时,检测到3,确定1,1,3,2,1,1,3,1完成启动系统动作并返回站立位置。使用MSRC-12手势数据集数据进行测试,测试结果如表2所示。为了比较各算法的优劣,表2还列出了文献[10]中随机森林算法的识别情况。

从表2可以清楚地看出,与[10]中的算法相比,本文提出的算法的识别精度更高。通过实验可知,Start系统、Duck和Pushright的具体识别准确率分别为7182、80和7636。

4总结

本文算法能够实时提取骨骼数据、计算骨骼特征、分类识别并形成序列,具有良好的实时性。本发明的串行化动态动作识别方法可以满足各种动作的任意组合,具有良好的可扩展性。实验表明本文算法具有较高的识别准确率。然而,对采集到的每一帧骨骼图像进行分类无疑会增加算法的复杂度。因此,如何减少冗余的分类和识别是下一步研究需要解决的题。

参考

[1]李瑞峰,王亮亮,王科.人类动作识别研究述评[J]模式识别与人工智能,2014,271:35-48

[2]胡琼,秦磊,黄庆明基于视觉的人体动作识别研究进展[J]计算机科学学报,2013,3612:2512-2524

[3]NIEBLESJC,WANGH,LIFF基于时空词的人类行为类别的无监督学习[J]InternationalJournalofComputerVision,2008,793:299-318

[4]JAGERM,KNOLLC,HAMPRECHTFA用于异常事件检测的分类器的弱监督学习[J]IEEETransactionsonImageTreatmentAPublicationoftheIEEESignalProcessingSociety,2008,179:1700-1708

[5]IBABEZR,SORIAA,TEYSEYREA,etal.Kinect的简易手势识别[J]工程软件进展,2014,76:171-180

[6]TRIGUEIROSP,RIBEIROF,REISLPA应用于手势识别的机器学习算法比较[J]技术,2012,521141-46

[7]张志.微软Kinect传感器及其效果[M]IEEE计算机学会出版社,20124-10

[8]刁俊芳基于Kinect的人体动作识别技术研究[D]重庆重庆大学,2015

[9]SOTIRISVA,TSEPW,PECHTMG通过贝叶斯支持向量机进行异常检测[J]IEEETransactionsonReliability,2010,592:277-286

[10]FOTHERGILLS、MENTISH、KOHLIP等人指导人们进行手势交互训练


关于估计体重3038g 443g和估计体重2637+385g的话题今天就聊到这里,希望对大家有所帮助,也请大家关注订阅本站。


发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。