Abstract
针对表面肌电信号时域和频域特征提取识别手势的准确性易受影响及分类器识别率低的问题,本文提出一种将表面肌电信号处理为灰度图,并结合卷积神经网络作为分类器的手势精确识别方法。首先,使用能量阈值法截取肌电信号的活动段,通过线性和幂运算对时域电压值进行处理,生成灰度图作为卷积神经网络的输入。其次,搭建多视野卷积神经网络模型,使用1 × n和3 × n的异形卷积核,在同一卷积层内实现不同尺寸卷积核并行的结构,以优化对肌电信号的表达能力。实验结果表明,所提出的方法对13种手势和12种多指运动的识别准确率分别达到98.11%和98.75%,显著高于现有机器学习方法。本文提出的基于肌电信号灰度图与多视野卷积神经网络的手势识别方法,具有简单高效的特点,能够有效提升手势识别的准确性,具有较强的应用潜力。
Keywords: 卷积神经网络, 表面肌电信号, 灰度图, 手势识别
Abstract
This study aims to address the limitations in gesture recognition caused by the susceptibility of temporal and frequency domain feature extraction from surface electromyography signals, as well as the low recognition rates of conventional classifiers. A novel gesture recognition approach was proposed, which transformed surface electromyography signals into grayscale images and employed convolutional neural networks as classifiers. The method began by segmenting the active portions of the surface electromyography signals using an energy threshold approach. Temporal voltage values were then processed through linear scaling and power transformations to generate grayscale images for convolutional neural network input. Subsequently, a multi-view convolutional neural network model was constructed, utilizing asymmetric convolutional kernels of sizes 1 × n and 3 × n within the same layer to enhance the representation capability of surface electromyography signals. Experimental results showed that the proposed method achieved recognition accuracies of 98.11% for 13 gestures and 98.75% for 12 multi-finger movements, significantly outperforming existing machine learning approaches. The proposed gesture recognition method, based on surface electromyography grayscale images and multi-view convolutional neural networks, demonstrates simplicity and efficiency, substantially improving recognition accuracy and exhibiting strong potential for practical applications.
Keywords: Convolutional neural network, Surface electromyography, Grayscale image, Gesture recognition
0. 引言
表面肌电信号(surface electromyography,sEMG)在康复工程[1]和外骨骼控制等领域得到了广泛应用[2-4]。通过采集不同手势的sEMG并进行分类,研究人员致力于构建高效的sEMG手势识别模型[5-6]。然而,sEMG是一种非线性多电势叠加的信号,与关节力矩、肌肉力有很强的非线性关系[7],这给其分类器的制作带来了困难。
目前,机器学习算法是sEMG分类的主流算法,例如K最邻近(K-nearest neighbor,KNN)[8-9]、线性判别分析(linear discriminant analysis,LDA)[10]、支持向量机(support vector machine,SVM)[11]、人工神经网络(artificial neural network,ANN)等。为了提高识别精度,研究人员通常会先提取sEMG的有效部分,去除干扰信息,再提取时域、频域、时频域特征训练分类器[12-13]。Narayan等[14]利用ANN和LDA对6种手势进行分类,获得了96.4%和94.5%的准确率。都明宇等[15]使用反向传播(back propagation,BP)神经网络对6种单指动作、13种多指动作、20种手部动作进行识别,获得了98.5%、92.4%、90.9%的准确率。然而,这些特征提取方法的准确性易受多种因素影响,导致分类系统的鲁棒性不足[16]。
近几年,许多研究人员将深度学习算法应用于肌电信号的分类识别[17-20]。其中,卷积神经网络(convolutional neural network,CNN)因其优异的特征提取能力而成为主要研究对象[21-23]。研究人员通过将sEMG转化为图像训练CNN,取得了良好的识别效果。Ding等[24]使用原始肌电图训练CNN,在Ninapro-DB1[25]数据集上得到了较高的识别精度。许留凯等[26]将sEMG的能量密度绘制成相图,将相图作为CNN的输入,在2、4、8种手势识别实验中均达到93%以上的识别精度。Duan等[17]将sEMG转换为频谱图通过CNN对10种手势进行识别,精度达94.06%。但是,这些方法未深入探讨网络深度和卷积核尺寸对模型性能的影响,且图像化处理的流程较为复杂。
针对上述问题,本文提出一种基于sEMG灰度图和多视野卷积神经网络的手势识别新方法。该方法通过对sEMG进行线性运算和幂运算,将运算后的矩阵转化为灰度图,结合CNN实现手势识别。这种方法旨在更直观地展示sEMG的时域特性[27],并利用CNN的多层结构提取更丰富的特征,实现多种手势的精确识别。
1. 表面肌电信号灰度图获取方法
1.1. 表面肌电信号采集
本文采集人体右前臂4通道sEMG,采集区域如图1左上所示。4个采集点距离肘关节40 mm,各采集通道围绕前臂等距分布,采集通道的两电极间隔20 mm。sEMG采集设备如图1右上所示,为葡萄牙PLUX公司的Biosignalsplux Hybrid-8生物信号采集系统,采样率为1 000 Hz。
图 1.

Surface electromyography signal acquisition
表面肌电信号采集
共有13名受试者参与sEMG采集(年龄22~27岁,男性8人,女性5人),受试者均无关节或神经疾病史,详细信息参见附件1。本研究获得西安交通大学第二附属医院医学伦理委员会的审核批准(批文编号:2024YS239),所有受试者均签署了知情同意书,并授权可使用相关数据。手势动作如图1下侧所示,共采集13种手势。为方便对sEMG有效部分的提取,对手势的采集过程进行规范化。手势的运动时间为1~2 s,完成一次动作之后放松3~4 s,之后再继续动作。每次动作的时间间隔为5 s,以放松~动作~放松的形式循环采集20次。
1.2. 灰度图提取算法
灰度图的提取过程如图2所示。使用10~250 Hz的带通滤波器和50 Hz的陷波滤波器过滤信号中的噪声。使用能量阈值来检测sEMG的有效部分,阈值大小根据实验需求而定。
图 2.
Extraction process of grayscale image
灰度图提取过程
![]() |
1 |
式(1)中,n为采集通道数,
为第k窗口(窗口尺寸4 × 512,步长256,)内的能量均值,
为j通道k窗口i时刻的电压值。
用尺寸4 × 1 536的窗口采样连续5次超越阈值的数据作为样本。样本数量:13(受试者数量) × 13(手势种类) × 20(重复次数) = 3 380。剔除部分不合格的样本(采集过程中电极松脱和首尾不完整的信号)后得到3 330个样本。之后用尺寸4 × 1 024的滑动窗口对每一个样本进行交错采样,步长为512,最终得到6 660个扩充后的样本。
PLUX采集系统所保存的原始数据不是sEMG的时域电压值,通过式(2)对电压值进行逆向求解。
![]() |
2 |
式中
为j通道、i时刻的电压值,
为系统输出的原始数值,n = 16,VCC(3V)为采集系统工作电压。
求出的
数值较小,为匹配神经网络的初始权重并降低迭代开始时的损失值[15],将电压单位转为mV,通过式(3)对电压值进行线性增大,用指数0.8对电压值进行压缩,保留样本的数值纹理。
![]() |
3 |
通过式(4)对电压值进行过滤,去除干扰值。将样本制成灰度图片,
的大小为灰度图像素点的亮度值。
![]() |
4 |
通过式(5)对数据进行归一化,为每个样本贴上相应手势动作的标签0~12。
![]() |
5 |
2. 多视野卷积神经网络识别模型构建
2.1. 网络拓扑结构
本文提出一种多视野卷积神经网络(CNN4-M),通过卷积层提取sEMG特征,使用池化层缩减特征的时域维度。CNN4-M首层采用不同尺寸卷积核并行的结构,可从多尺度提取sEMG时域特征并映射至网络中。针对sEMG数据特点,CNN4-M使用异形卷积核来提取时域特征。CNN4-M结构如图3所示,C1、C2层使用尺寸为1×n的卷积核,对sEMG的每个通道分别进行特征提取。其中,C1为多视野卷积层,由C11、C12、C13、C14并联组成。C3、C4层分别使用尺寸为3 × 9、3 × 5的卷积核,提取sEMG各通道之间的关联特征。F1为512个神经元组成的全连接层,F2为13个神经元和Softmax函数组成的输出层。
图 3.
The structure of CNN4-M
多视野卷积神经网络结构
2.2. 手势识别模型的参数选择
CNN4-M的模型参数如表1所示,模型的损失函数为交叉熵。其中,Conv为卷积操作;Max pooling为最大池化操作;BN为批量归一化操作,有利于提升模型的非线性表达能力;Dropout为舍弃操作,可在模型训练时将一部分神经元休眠不参与训练,有利于减少模型的过拟合现象(本文中的Dropout参数均为0.2);FC为全连接层。Softmax函数可将神经元的输出映射在(0,1)区间内,根据概率分布情况,生产预测结果。式(6)中,
为第i神经元输出结果。ReLU为激活函数,可以为网络引入非线性因素,提高模型的表达能力,式(7)中,当输入x < 0时,输出为0;x≥0时,输出是x本身。
表 1. CNN4-M parameters of each layer.
多视野卷积神经网络各层参数
| 名称 | 操作 | 全零填充 | 核尺寸 | 数量 | 步长 |
| C11 | Conv + BN + ReLU | 是 | 1×9 | 4 | 1 |
| Max pooling | 否 | 1×4 | 1×4 | ||
| C12 | Conv + BN + ReLU | 是 | 1×17 | 4 | 1 |
| Max pooling | 否 | 1×4 | 1×4 | ||
| C13 | Conv + BN + ReLU | 是 | 1×27 | 4 | 1 |
| Max pooling | 否 | 1×4 | 1×4 | ||
| C14 | Conv + BN + ReLU | 是 | 1×35 | 4 | 1 |
| Max pooling | 否 | 1×4 | 1×4 | ||
| C2 | Conv + BN + ReLU + Dropout | 是 | 1×9 | 32 | 1 |
| Max pooling | 否 | 1×4 | 1×4 | ||
| C3 | Conv + BN + ReLU + Dropout | 是 | 3×9 | 32 | 1 |
| Max pooling | 否 | 1×4 | 1×4 | ||
| C4 | Conv + BN + ReLU + Dropout | 是 | 3×5 | 64 | 1 |
| Max pooling | 否 | 1×4 | 1×4 | ||
| F1 | FC + ReLU + Dropout | 神经元数量512 | |||
| F2 | FC + Softmax | 神经元数量13 | |||
![]() |
6 |
![]() |
7 |
3. 实验与分析
在本文中,深度学习模型构建所使用的工具和开发环境为:深度学习框架TensorFlow2.1;工具PyCharm IDE;环境Python 3.7。
3.1. 训练配置和评价指标
模型的训练配置如下:将样本(6 660)随机分配,70%用于训练,30%用于测试;优化器使用Adam[28],学习率为0.000 1;批次大小(每次输入模型的样本数量)为64,模型迭代1 000次,取模型最后一次训练和验证的结果。使用准确率(Accuracy)、精确率(Precision)、召回率(Recall)和F1 Score作为模型的评价指标。
![]() |
8 |
![]() |
9 |
![]() |
10 |
![]() |
11 |
式中,TP、TN分别为被正确识别出的同种手势和不同种手势的数量,FP、FN为被错误识别出的同种手势和不同种手势的数量
3.2. 模型深度的选择
不同深度模型对sEMG的表达能力有所不同,较深的模型识别性能较好[29],但随着网络深度的增加,可能出现梯度消失的情况[30]。为找到较优的模型深度,本小节通过调整模型的网络深度搭建了6个模型。方法如图4所示,将Conv + BN + ReLU + Dropout定义为标准层,使用不同数量的标准层,搭建不同深度的模型。其中,卷积核的尺寸均为1 × 9,步长为1;池化核的尺寸为1 × n,步长为1 × n。模型输出特征数据的尺寸如表2所示,其中,FCNN为F1和 F2组成的全连接网络模型。
图 4.
Methods for building CNN models with different depths
不同深度CNN模型的搭建方法
表 2. The size of feature data output by CNN models with different depths.
不同深度CNN模型输出特征数据的尺寸
| 模型 | C1输出 | C2输出 | C3输出 | C4输出 | C5输出 |
| FCNN | — | — | — | — | — |
| CNN1 | 128 × 4 × 16 | — | — | — | — |
| CNN2 | 128 × 4 × 16 | 32 × 4 × 32 | — | — | — |
| CNN3 | 256 × 4 × 16 | 64 × 4 × 32 | 16 × 4 × 32 | — | — |
| CNN4 | 256 × 4 × 16 | 64 × 4 × 32 | 16 × 4 × 32 | 4 × 4 × 64 | — |
| CNN5 | 256 × 4 × 16 | 128 × 4 × 32 | 32 × 4 × 32 | 16 × 4 × 64 | 4 × 4 × 64 |
实验结果如表3所示,ANOVA结果显示F = 9 685.44,P = 3.33e-30(P<0.05),各模型的实验结果存在显著差异。FCNN的准确率最低,为30.18%,加入标准层后,CNN1的准确率提高到64.66%。深度为3、4、5层的模型都有不错的识别准确率,其中深度为4层的CNN4准确率最高,为95.15%,相较于CNN3和CNN5的准确率分别提升了2.26%和1.41%(P<0.05)。
表 3. Experimental results of CNN models with different depths.
不同深度CNN模型的实验结果
| 模型 | 准确率 | 精确率 | 召回率 | F1 Score |
| FCNN | 30.18% | 30.02% | 30.40% | 30.11% |
| CNN1 | 64.66% | 67.17% | 64.74% | 64.72% |
| CNN2 | 83.23% | 83.53% | 83.57% | 83.37% |
| CNN3 | 92.89% | 93.16% | 92.95% | 92.99% |
| CNN4 | 95.15% | 95.35% | 95.14% | 95.19% |
| CNN5 | 93.74% | 94.01% | 93.81% | 93.78% |
3.3. 模型卷积核尺寸的调整
不同尺寸卷积核对sEMG的特征提取能力有所不同。本小节根据sEMG的特点,调整CNN4模型的卷积核尺寸分别搭建了3个模型,模型的卷积核尺寸如表4所示。CNN4-1第一层的卷积核尺寸调整为1 × 27,使用较大尺寸卷积核;CNN4-2在第一层使用4种不同尺寸的卷积核,从多个尺度提取sEMG的特征;CNN4-3的3、4层分别使用3 × 9、3 × 5的卷积核,提取sEMG各通道的协同特征。
表 4. Convolution kernel size of each model.
各模型的卷积核尺寸
| 名称 | CNN4-1 | CNN4-2 | CNN4-3 |
| C1卷积核尺寸 | 1 × 27 | C11:1 × 9 | 1 × 9 |
| C12:1 × 17 | |||
| C13:1 × 27 | |||
| C14:1 × 35 | |||
| C2卷积核尺寸 | 1 × 9 | 1 × 9 | 1 × 9 |
| C3卷积核尺寸 | 1 × 9 | 1 × 9 | 3 × 9 |
| C4卷积核尺寸 | 1 × 9 | 1 × 9 | 3 × 5 |
实验结果如表5所示,ANOVA结果为F = 1 792.40,P = 6.70E-20(P < 0.05),各模型的实验结果存在显著差异。CNN4-2、CNN4-3的准确率分别为97.40%、97.30%,对比CNN4分别提升了2.25%和2.15%(P < 0.05)。说明在模型中使用不同尺寸的卷积核可以有效提升对sEMG的表达能力。结合CNN4-2和CNN4-3结构特点的CNN4-M在所有评价指标上均显著优于其他模型(P < 0.05)。对比CNN4,CNN4-M的准确率、精确率、召回率和F1 Score分别提升了3.00%、2.83%、3.05%和2.98%(P < 0.05),优化后的CNN4-M在准确性上更具优势。
表 5. Experimental results of CNN models using convolution kernels of different sizes.
使用不同尺寸卷积核CNN模型的实验结果
| 模型 | 准确率 | 精确率 | 召回率 | F1 Score |
| CNN4 | 95.15% | 95.35% | 95.14% | 95.19% |
| CNN4-1 | 96.65% | 96.74% | 96.68% | 96.69% |
| CNN4-2 | 97.40% | 97.48% | 97.45% | 97.45% |
| CNN4-3 | 97.30% | 97.35% | 97.35% | 97.40% |
| CNN4-M | 98.15% | 98.18% | 98.19% | 98.17% |
使用GPU(GTX1070ti)加速的情况下,CNN4-M识别每一个样本花费的时间仅为0.567 ms。CNN4-M的混淆矩阵参见附件2,个别手势的识别精度存在一定差异,这可能与手势的复杂性和区分度有关。一些手势更具显著特征,信号表现较为独特,因此模型更容易准确区分(例如0、6、7、12号手势),而某些手势可能与其他手势的信号特征较为相似,导致模型较难有效区分(例如5号手势)。
3.4. 对比试验
为获取对比效果,本文使用BP神经网络、决策树(decision tree,DT)、SVM、KNN四种机器学习方法和Lenet、Alexnet、Vgg16、Resnet34四种CNN作对比实验,数据使用包含13种手势的自制数据集和Ninapro-DB1数据集。
Ninapro-DB1数据集内包含27个受试者的52种手部动作,每种动作重复10次,本文使用第一组12种多指运动的sEMG数据。Ninapro-DB1内sEMG的采样率、通道数、采样时间分别为:100 Hz、10通道、5 s。用尺寸为10 × 786的窗口裁剪连续2次超越阈值的数据作为样本。样本数量:27(受试者数量) × 12(手势种类) × 10(重复次数) = 3 240。对数据进行扩充,用尺寸10 × 490的滑动窗口对每一个样本进行交错采样,步长为296,得到6 480个扩充后的样本。之后,通过式(3)~(5)对样本进行处理。
为适应Lenet、Alexnet、Vgg16、Resnet34的网络结构,需对样本的数据结构进行调整,自制数据集的样本尺寸调整为64×64,Ninapro-DB1数据集的样本尺寸调整为70×70,调整方法如图5所示。
图 5.
Data structure adjustment
数据结构的调整
机器学习模型中,BP输入层和隐含层节点数分别为40、60,输出层节点数根据样本类别数而定,学习率为0.01。SVM核函数使用径向基函数核,核宽度调整为1。使用sEMG特征对机器学习模型进行训练,提取sEMG每个通道的4个时域特征和2个频域特征。时域特征为绝对平均值(mean absolute value,MAV)、均方根值(root mean square,RMS)、方差(variance,VAR)和波长(wave length,WL),频域特征为平均功率频率(mean power frequency,MPF)和中值频率(median frequency,MF)。
![]() |
12 |
![]() |
13 |
![]() |
14 |
![]() |
15 |
![]() |
16 |
![]() |
17 |
式(12)~(17)中,L为窗口长度,
为第i窗口的第k数值,N为样本个数,
为功率谱的密度计算函数。
本文对CNN模型的寻优过程中使用7∶3比例来划分训练和测试样本,这可能会导致数据泄露问题,让模型准确率虚高。因此,在本小节使用交叉验证方法来评估模型,让实验结果更可靠。
表6和表7是四种机器学习模型在自制数据集和Ninapro-DB1数据集上5折交叉验证的准确率,其中“T”“F”“TF”分别表示4个时域特征组合、2个频域特征组合、所有特征组合。结果显示,DT、BP和KNN在使用时域特征(T)组合时的准确率最高,在自制数据集上的准确率分别为75.80%、91.77%和93.17%,在Ninapro-DB1数据集上的准确率分别为86.61%、94.60%和94.52%。SVM在使用所有特征组合(TF)时的准确率最高,在两个数据集上的准确率分别为92.03%和95.58%。表6、表7各模型在不同特征组合下的识别准确率存在显著差异(P<0.05)。
表 6. Recognition accuracy of machine learning model (Self-made dataset–13 gestures).
机器学习模型识别准确率(自制数据集–13种手势)
| 特征 | DT | BP | SVM | KNN |
| MAV | 69.67% | 79.33% | 80.05% | 79.00% |
| RMS | 69.68% | 82.07% | 83.61% | 82.00% |
| VAR | 73.69% | 46.23% | 89.52% | 87.90% |
| WL | 74.95% | 88.95% | 87.71% | 86.20% |
| MPF | 62.75% | 70.57% | 71.88% | 68.60% |
| MF | 62.74% | 77.27% | 56.10% | 68.10% |
| T | 75.80% | 91.77% | 91.20% | 93.17% |
| F | 62.74% | 70.92% | 71.73% | 70.32% |
| TF | 75.67% | 91.46% | 92.03% | 92.56% |
表 7. Recognition accuracy of machine learning model (Ninapro-DB1–12 multi-finger movements).
机器学习模型识别准确率(Ninapro-DB1–12种多指运动)
| 特征 | DT | BP | SVM | KNN |
| MAV | 84.11% | 85.62% | 85.80% | 92.01% |
| RMS | 84.11% | 91.10% | 92.51% | 93.56% |
| VAR | 85.32% | 88.42% | 88.33% | 92.46% |
| WL | 84.71% | 89.56% | 90.87% | 90.30% |
| MPF | 62.41% | 75.64% | 66.29% | 86.85% |
| MF | 62.41% | 79.90% | 73.36% | 88.28% |
| T | 86.61% | 94.60% | 95.12% | 94.52% |
| F | 63.14% | 79.50% | 65.53% | 88.34% |
| TF | 82.98% | 92.40% | 95.85% | 94.43% |
5折交叉验证结果如表8所示,其中DT-T、BP-T、SVM-TF、KNN-T为表6~7中四种机器学习模型的最佳测试结果。在四种CNN中,Vgg16在自制数据集中的准确率最高,为94.18%,Resnet34在Ninapro-DB1数据集上的准确率最高,为98.06%。CNN4-M的准确率要高于四种机器学习模型和四种CNN,在自制数据集和Ninapro-DB1数据集上的准确率分别为98.11%和98.75%。
表 8. Recognition accuracy of each model.
各模型的识别准确率
| 模型 | 自制数据集 | Ninapro-DB1 |
| Lenet | 52.03% | 77.93% |
| Alexnet | 88.19% | 96.62% |
| Vgg16 | 94.18% | 97.62% |
| Resnet34 | 82.91% | 98.06% |
| CNN4-M | 98.11% | 98.75% |
| DT-T | 75.80% | 86.61% |
| BP-T | 91.77% | 94.60% |
| SVM-TF | 92.03% | 95.85% |
| KNN-T | 93.17% | 94.52% |
与本文相似研究的文献结果展示在表9,其中DB2、DB3、DB5为Ninapro里的标准数据集。由表9可知,本文的方法在分类精度上有明显优势,在手势分类数相近的情况下,本文所提手势识别方法的分类精度高于以往的研究。
表 9. Comparison of results with other researches.
与其他研究结果的对比
| 参考 文献 |
数据 来源 |
采集 通道数 |
采样 频率/Hz |
分类 模型 |
识别手势 种类 |
识别 精度 |
| [9] | DB1 | 10 | 100 | KNN | 12 | 81.71% |
| [9] | DB5 | 16 | 200 | SVM | 12 | 87.21% |
| [11] | 自制 | 4 | 500 | SVM | 10 | 97.93% |
| [13] | 自制 | 4 | 1 500 | LDA | 4 | 99.24% |
| [14] | 自制 | 4 | 500 | ANN | 6 | 96.40% |
| [15] | 自制 | 5 | 500 | BP | 13 | 92.40% |
| [16] | 自制 | 6 | 1 000 | CNN | 4 | 97.57% |
| [17] | 自制 | 8 | 100 | CNN | 10 | 94.06% |
| [21] | 自制 | 8 | 200 | 循环神经网络 | 10 | 90.78% |
| [22] | 自制 | 6 | 2 000 | CNN | 8 | 85.00% |
| [25] | DB3 | 12 | 2 000 | CNN | 17 | 78.86% |
| [26] | DB2 | 12 | 2 000 | CNN | 8 | 94.44% |
| [26] | DB2 | 12 | 2 000 | CNN | 16 | 85.12% |
| 本文方法 | 自制 | 4 | 1 000 | CNN | 13 | 98.11% |
| 本文方法 | DB1 | 10 | 100 | CNN | 12 | 98.75% |
4. 结论
本文提出了一种基于sEMG灰度图和多视野卷积神经网络的手势精确识别方法。通过对sEMG电压值的线性变换和幂计算,保留sEMG数值纹理并制成灰度图,用灰度图作为CNN的输入。搭建多视野卷积神经网络CNN4-M,对13种常见手势及Ninapro-DB1内12种多指运动进行测试,识别精度可达98.11%和98.75%。对比四种常用的机器学习方法和四种经典CNN,CNN4-M拥有最高的识别精度。本文所制作的sEMG灰度图在经典CNN上同样拥有适用性,在Vgg16上的测试精度可达94.18%,在Resnet34上的测试精度可达98.06%。在下一步的研究中,将缩短训练样本的时域长度,提高模型对手势识别的实时性。
重要声明
利益冲突声明:本文全体作者均声明不存在利益冲突。
作者贡献声明:陈清正主要负责实验流程、算法设计、论文编写;陶庆、张小栋主要负责实验指导、论文审阅修订;胡学政、张天乐参与数据采集及预处理。
伦理声明:本研究获得了西安交通大学第二附属医院医学伦理委员会的审批(批文编号:2024YS239)。
本文附件见本刊网站的电子版本(biomedeng.cn)。
Funding Statement
国家自然科学基金项目(51865056);自治区“天山英才”科技创新领军人才项目(2023TSYCLJ0051)
References
- 1.Repnik E, Puh U, Goljar N, et al Using inertial measurement units and electromyography to quantify movement during action research arm test execution. Sensors. 2018;18(9):2767. doi: 10.3390/s18092767. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 2.Farina D, Aszmann O Bionic limbs: clinical reality and academic promises. Sci Transl Med. 2014;6(257):257ps12. doi: 10.1126/scitranslmed.3010453. [DOI] [PubMed] [Google Scholar]
- 3.Angkoon P, Franck Q, Sylvie C, et al EMG feature evaluation for improving myoelectric pattern recognition robustness. Expert Syst Appl. 2013;40(12):4832–4840. doi: 10.1016/j.eswa.2013.02.023. [DOI] [Google Scholar]
- 4.Narek N, Belov A Design of upper limb prosthesis using real-time motion detection method based on EMG signal processing. Biomed Signal Process Control. 2021;70:103062. doi: 10.1016/j.bspc.2021.103062. [DOI] [Google Scholar]
- 5.Bittibssib T, Genedy M, Maged S, et al sEMG pattern recognition based on recurrent neural network. Biomed Signal Process Control. 2021;70:103048. doi: 10.1016/j.bspc.2021.103048. [DOI] [Google Scholar]
- 6.Furui A, Igaue T, Tsuji T EMG pattern recognition via Bayesian inference with scale mixture-based stochastic generative models. Expert Syst Appl. 2021;185:115644. doi: 10.1016/j.eswa.2021.115644. [DOI] [Google Scholar]
- 7.Batayneh W, Abdulhay E, Alothman M Comparing the efficiency of artificial neural networks in sEMG-based simultaneous and continuous estimation of hand kinematics. Digit Commun Netw. 2022;8(2):162–173. doi: 10.1016/j.dcan.2021.08.002. [DOI] [Google Scholar]
- 8.Nishad A, Upadhyay A, Pachori R, et al Automated classification of hand movements using tunable-Q wavelet transform based filter bank with surface electromyogram signals. Future Gener Comput Syst. 2019;93:96–110. doi: 10.1016/j.future.2018.10.005. [DOI] [Google Scholar]
- 9.郑楠, 李玉榕, 张文萱, 等 基于特定任务肌肉协同的用户无关肌电手势识别研究. 仪器仪表学报. 2021;42(9):253–261. [Google Scholar]
- 10.Alkan A, Gyunay M Identification of EMG signals using discriminant analysis and SVM classifier. Expert Syst Appl. 2012;39(1):44–47. doi: 10.1016/j.eswa.2011.06.043. [DOI] [Google Scholar]
- 11.Xun C, Wang Z Pattern recognition of number gestures based on a wireless surface EMG system. Biomed Signal Process Control. 2013;8(2):184–192. doi: 10.1016/j.bspc.2012.08.005. [DOI] [Google Scholar]
- 12.Diykh M, Abdulla S, Miften F, et al A new framework for classification of multi-category hand grasps using EMG signals. Artif Intell Med. 2020;112:102005. doi: 10.1016/j.artmed.2020.102005. [DOI] [PubMed] [Google Scholar]
- 13.赵诗琪, 吴旭洲, 张旭, 等 利用表面肌电进行手势自动识别. 西安交通大学学报. 2020;54(9):149–156. doi: 10.7652/xjtuxb202009017. [DOI] [Google Scholar]
- 14.Narayan Y Hb vsEMG signal classification with time domain and frequency domain features using LDA and ANN classifier. Mater Today Proc. 2021;37(2):3226–3230. [Google Scholar]
- 15.都明宇, 王志恒, 荀一, 等 多模式人手动作分类识别方法. 中国机械工程. 2019;30(12):1474–1479. doi: 10.3969/j.issn.1004-132X.2019.12.014. [DOI] [Google Scholar]
- 16.Jiang Y, Chen C, Zhang X, et al Shoulder muscle activation pattern recognition based on sEMG and machine learning algorithms. Comput Methods Programs Biomed. 2020;197(4):105721. doi: 10.1016/j.cmpb.2020.105721. [DOI] [PubMed] [Google Scholar]
- 17.Duan N, Liu L, Yu X, et al Classification of multichannel surface-electromyography signals based on convolutional neural networks. J Ind Inf Integr. 2019;15:201–206. [Google Scholar]
- 18.Jia G, Lam H, Liao J, et al Classification of electromyographic hand gesture signals using machine learning techniques. Neurocomputing. 2020;401:236–248. doi: 10.1016/j.neucom.2020.03.009. [DOI] [PubMed] [Google Scholar]
- 19.Bahador N, Kortelainen J Deep learning-based classification of multichannel bio-signals using directedness transfer learning. Biomed Signal Process Control. 2022;72(A):103300. [Google Scholar]
- 20.周旭峰, 王醒策, 武仲科, 等 基于组合 RNN 网络的 EMG 信号手势识别. 光学精密工程. 2020;28(2):424–442. [Google Scholar]
- 21.Qi S, Wu X, Chen W, et al sEMG-based recognition of composite motion with convolutional neural network. Sens Actuators A Phys. 2020;311(5):112046. [Google Scholar]
- 22.Olsson A, Bjorkman A, Antfolk C Automatic discovery of resource-restricted convolutional neural network topologies for myoelectric pattern recognition. Comput Biol Med. 2020;120:103723. doi: 10.1016/j.compbiomed.2020.103723. [DOI] [PubMed] [Google Scholar]
- 23.Yu H, Huang Y, Wei W, et al A novel attention-based hybrid CNN-RNN architecture for sEMG-based gesture recognition. PLoS One. 2018;13(10):e0206049. doi: 10.1371/journal.pone.0206049. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 24.Ding Z, Yang C, Tian Z, et al sEMG-based gesture recognition with convolution neural networks. Sustainability. 2018;10(6):1–12. [Google Scholar]
- 25.Manfredo A, Arjan G, Claudio C, et al Electromyography data for non-invasive naturally-controlled robotic hand prostheses. Sci Data. 2014;1(1):140053. doi: 10.1038/sdata.2014.53. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 26.许留凯, 张克勤, 徐兆红, 等 基于表面肌电信号能量核相图的卷积神经网络人体手势识别算法. 生物医学工程学杂志. 2021;38(4):621–629. doi: 10.7507/1001-5515.202010080. [DOI] [Google Scholar]
- 27.Geng W, Du Y, Jin W, et al Gesture recognition by instantaneous surface EMG images. Sci Rep. 2016;6(1):36571. doi: 10.1038/srep36571. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 28.Kingma D P, Ba J. Adam: a method for stochastic optimization. CoRR, 2014: abs/1412.6980.
- 29.Bengio Y, Yann L. Scaling learning algorithms towards AI// Bottou L, Chapelle O, DeCoste D, et al. Large-scale kernel machines. Cambridge: MIT Press 2007: 321-359.
- 30.Yoshua B, Patrice S, Paolo F Learning long-term dependencies with gradient descent is difficult. IEEE Trans Neural Netw. 1994;5(2):157–166. doi: 10.1109/72.279181. [DOI] [PubMed] [Google Scholar]





















