Abstract
心律失常是一种常见的威胁人类健康的心血管疾病,其主要的确诊手段靠心电图(ECG)。采用计算机技术实现心律失常自动分类可有效避免人工误差,提高诊断效率并降低成本。心律失常自动分类算法大多集中于一维时序信号的处理,其鲁棒性不足。为此,本文提出一种基于格拉姆角和场(GASF)和改进的Inception-ResNet-v2的心律失常图像分类方法。首先使用变分模态分解进行去噪,用深度卷积生成对抗网络进行数据扩增,然后使用GASF将一维时序心电信号转换为二维图像,并使用改进的Inception-ResNet-v2网络实现AAMI推荐的五种(N、V、S、F和Q)心律失常分类。在MIT-BIH心律失常数据库测试实验表明:在患者内(intra-patient)和患者间(inter-patient)范式下分别获得了99.52%和95.48%的整体分类精度。本文改进的Inception-ResNet-v2网络的心律失常分类表现优于其他方法,为基于深度学习的心律失常自动分类提供了一种新途径。
Keywords: 心律失常图像分类, Inception-ResNet-v2, 深度卷积生成对抗网络, 格拉姆角和场
Abstract
Arrhythmia is a significant cardiovascular disease that poses a threat to human health, and its primary diagnosis relies on electrocardiogram (ECG). Implementing computer technology to achieve automatic classification of arrhythmia can effectively avoid human error, improve diagnostic efficiency, and reduce costs. However, most automatic arrhythmia classification algorithms focus on one-dimensional temporal signals, which lack robustness. Therefore, this study proposed an arrhythmia image classification method based on Gramian angular summation field (GASF) and an improved Inception-ResNet-v2 network. Firstly, the data was preprocessed using variational mode decomposition, and data augmentation was performed using a deep convolutional generative adversarial network. Then, GASF was used to transform one-dimensional ECG signals into two-dimensional images, and an improved Inception-ResNet-v2 network was utilized to implement the five arrhythmia classifications recommended by the AAMI (N, V, S, F, and Q). The experimental results on the MIT-BIH Arrhythmia Database showed that the proposed method achieved an overall classification accuracy of 99.52% and 95.48% under the intra-patient and inter-patient paradigms, respectively. The arrhythmia classification performance of the improved Inception-ResNet-v2 network in this study outperforms other methods, providing a new approach for deep learning-based automatic arrhythmia classification.
Keywords: Image classification of arrhythmias, Inception-ResNet-v2, Deep convolutional generative adversarial network, Gramian angular summation field
0. 引言
《中国心血管健康与疾病报告2021》[1]指出,目前我国心血管病患者已达3.3亿,成为国民健康的头号威胁。心律失常是常见且严重的心血管疾病,临床诊断主要依靠心电图(electrocardiogram,ECG)和专业医生的辅助诊断[2]。由于心律失常具有隐蔽性、复杂性和突发性的特点,传统的心律失常诊断存在误诊风险且费时费工。因此,研究设计计算机辅助的心律失常自动分类系统具有重要意义。
现有的计算机辅助心律失常自动分类主要有传统机器学习和深度学习方法[3]。传统机器学习方法主要是基于形态学特征通过人工经验提取来实现分类。常用的方法有决策树[4]、随机森林[5]、K最近邻算法[6-7]和隐马尔可夫模型[8]等。传统机器学习方法依赖于人工经验的特征提取,难以适应患者的个体差异性,泛化能力弱[9],而深度学习方法不依赖人工经验的特征提取,可从数据中自动学习到更复杂的特征信息[10]。在心律失常的分类研究中,卷积神经网络(convolutional neural network,CNN)挖掘特征信息的优异表现受到广泛关注,使用一维卷积从ECG信号中进行特征提取和分类成为主流方法。如文献[11-13],使用一维心电数据作为输入,再结合波形属性、连续波之间的间距以及每个波的振幅和周期等特征进行分类。
虽然一维卷积能够在一定程度上捕捉时间序列的非线性特征,但它未充分考虑时间序列中的时间相关性,并且存在空间分辨率较低的问题[14]。研究表明,相比于一维卷积,二维卷积能够提供更精确的分类效果[15-16]。Huang等[17]在时域信号中通过短时傅里叶变换将输入的一维ECG信号转换为二维频谱图,然后使用CNN进行心律失常分类,性能优于一维模型。Wang等[18]提出了一种结合连续小波变换和CNN的心电信号自动分类方法。使用连续小波变换将心电信号分解成不同的时频分量构建心电信号二维图像,最后结合RR区间特征对五种类型的心律失常进行分类,其分类准确度为98.74%。Zyout等[19]使用虹膜光谱图和尺度谱图两种不同的频谱表示ECG信号,然后使用两种不同深度的CNN网络分别获得了98.3%和94.4%的分类准确度。然而,上述方法容易丢失特征信息,处理效率低,解释性差。
本文根据上述问题,从二维ECG图像的构建、数据预处理及二维CNN的优化方法出发,提出了一种基于格拉姆角和场(Gramian angular summation field,GASF)和改进的Inception-ResNet-v2的心律失常图像分类方法,旨在提高心律失常分类的准确性和提供一种数据平衡的有效方法。
1. 本文算法
本文提出的基于GASF和Inception-ResNet-v2的心律失常图像分类算法结构如图1所示,算法流程包括:使用变分模态分解(variational mode decomposition,VMD)去噪和深度卷积生成对抗网络(deep convolutional generative adversarial network,DCGAN)对数据进行平衡,然后使用GASF将一维ECG转换为相应的二维ECG图像,最后使用改进的Inception-ResNet-v2网络对心律失常图像进行分类。
图 1.
Overview of the algorithm framework in this paper
本文算法框架概览
1.1. 数据来源
本文的实验数据来源于MIT-BIH心律失常数据库[20],下文简称MITDB。该数据库以360 Hz的采样频率记录了48名患者的心跳信息。根据注释和美国医疗器械促进协会(Association for the Advancement of Medical Instrumentation,AAMI)EC57标准,把15种心律失常划分为5类心律失常组:正常心拍(normal beat,N)、室上性异位心拍(supraventricular premature beat,S)、心室异位心拍(ventricular ectopic beat,V)、融合心拍(fusion beat,F)和未知心拍(unknown beat,Q)。
1.2. 数据预处理
1.2.1. VMD去噪
ECG信号的噪声主要有肌电干扰、工频干扰和基线漂移[21]。VMD去噪[22]是经验模态分解的一种改进,具有优秀的去噪效果和抑制模态混叠的特点,通过VMD可以将输入信号分解成
个具有确定中心频率和有限带宽的固有模态函数(intrinsic mode functions,IMF)[23]
和残余项
,则
可以用式(1)表示,其中,
为原始信号,
为噪声。
![]() |
1 |
本文利用VMD进行去噪,以MITDB109信号为例,去噪效果如图2所示。首先对ECG信号进行8级VMD分解,得到8个从低频到高频的IMF分量。基线漂移分布在低频区域小于1 Hz,工频干扰分布在高频区域大于60 Hz[24]。通过对IMF分量进行功率谱分析,发现IMF1含有1 Hz的基线漂移,IMF8含有大于60 Hz的高频噪声。去除基线漂移和工频噪声分量后,将其余IMF分量求和进行信号重构。
图 2.
Effect of VMD denoising
VMD去噪效果
1.2.2. DCGAN数据平衡
本文根据MITDB的注释,以R峰为中心截取一个心拍(分别向R峰左截取0.28 s,向R峰右截取0.56 s),则MITDB的AAMI标准心拍中N类数量为89 992个,V类数量为6 996个,S类数量为2 777个,F类数量为802个,Q类数量为14个。MIT-BIH的心跳数量分布极不平衡,在不平衡的数据集中,一些类别的样本很少,这可能导致深度学习模型分类能力不足,甚至完全忽略这些类。因此,对稀少样本进行数据平衡是必要的。本文采用无监督数据平衡[25]的方法,使用DCGAN生成一维心拍样本,以平衡V、S、F和Q类心拍数据。DCGAN生成的样本接近真实样本的分布,既保留了原始心拍特征,又与原始心拍有所不同,从而提升了模型的泛化能力。
本文提出的DCGAN结构如图3所示,包括生成器(Generator,G)和鉴别器(Discriminator,D)两个部分。G通过接收噪声向量生成新的心电样本,D将真实心拍数据和G生成的假数据同时输入进行区分。为了增强性能,改进了G和D之间的反馈机制,并通过交替训练两个网络来使合成的心电数据更好地反映原始数据的特征和分布。DCGAN结构的具体超参数如表1和表2所示。
图 3.
DCGAN structure
DCGAN结构
表 1. Hyperparameters of the generator.
生成器的超参数
Layers | Kernel size | Out channels | Stride | Padding | Activation |
ConvTranspose1d | 4 | 2 048 | 1 | 0 | ReLU |
ConvTranspose1d | 4 | 1 024 | 1 | 0 | ReLU |
ConvTranspose1d | 4 | 512 | 2 | 1 | ReLU |
ConvTranspose1d | 3 | 256 | 2 | 1 | ReLU |
ConvTranspose1d | 4 | 128 | 2 | 1 | ReLU |
ConvTranspose1d | 2 | 64 | 2 | 1 | ReLU |
ConvTranspose1d | 1 | 4 | 2 | 1 | ― |
表 2. Hyperparameters of the discriminator.
鉴别器的超参数
Layers | Kernel size | Out channels | Stride | Padding | Activation |
Conv1d | 4 | 64 | 2 | 1 | LeakyReLU(0.2) |
Conv1d | 4 | 128 | 2 | 1 | LeakyReLU(0.2) |
Conv1d | 4 | 256 | 2 | 1 | LeakyReLU(0.2) |
Conv1d | 4 | 512 | 2 | 1 | LeakyReLU(0.2) |
Conv1d | 4 | 1 024 | 2 | 1 | LeakyReLU(0.2) |
Conv1d | 5 | 1 | 2 | 0 | Sigmoid |
DCGAN生成器和鉴别器的目标损失函数采用交叉熵损失函数计算损失率,并结合Adam优化器进行优化。Adam优化器初始学习率设置为0.000 2,beta1设置为0.5,beta2设置为0.999。经过2 000次交替训练,获得了最佳的心电信号合成效果。V、S、F和Q的合成心跳如图4所示。
图 4.
DCGAN synthetic heart beat
DCGAN合成心拍
1.2.3. GASF转换二维图像
GASF是一种将一维时间序列数据转换为二维图像的编码方法。它的原理是用极坐标来表示时间序列数据,利用基于极坐标的时间相关守恒Gram矩阵将时间序列转换为图像[26]。基于图像分类的思想,本文采用GASF将数据平衡后的一维心电信号进行编码,保留心电信号的时间依赖性,将其转换为大小为的二维图像。图5展示了由一维心电信号转换而成的二维图像。
图 5.
One-dimensional heart beats converted to images
一维心拍转换为图像
1.3. 心律失常图像分类网络
1.3.1. 卷积注意力模块
卷积注意力模块(convolutional block attention module,CBAM)[27]融合了通道注意力模块(channel attention module,CAM)和空间注意力模块(spatial attention module,SAM),是一种轻量级通用模块。它可以将给定的中间特征映射沿着通道和空间两个单独的维度依次判断注意映射,然后将注意映射乘以输入特征映射,进行自适应特征细化[28],从而聚焦有用信息,抑制无用信息。CBAM结构如图6所示。
图 6.
CBAM structure
CBAM结构
CAM的作用是提取注意力对象。假设中间输入特征图为,通过最大池化和平均池化对输入特征图进行压缩,得到两组特征图大小为
的特征通道,最后通过包含隐含层的共享网络(shared multilayer perceptron,Shard MLP)更新注意力对象的权值,计算表达式如式(2)所示。
![]() |
2 |
其中为sigmoid函数,CAM特征图大小
,
和
为Shared MLP的权重,
为衰减因子,
和
是平均池化和最大池化的特征图。
SAM的作用是获取注意力对象的位置。通过最大池化和平均池化聚合特征图的通道信息,然后连接卷积层生成二维注意力特征图,特征图的大小为,计算表达式见式(3)。
![]() |
3 |
其中,SAM特征图大小,
和
是平均和最大池化操作后的特征图,
表示卷积层的卷积核是
。
1.3.2. 改进的Inception-ResNet-v2模型
Inception-ResNet-v2是Google团队Szegedy等[29]基于Inception v4网络结合ResNet的优点提出的一种高性能图像分类网络,其在ILSVRC图像分类基准测试中取得了当下最好的成绩。Inception-resNet-v2网络的主干结构如图7所示,主要由stem、Inception-ResNet-A、Inception-ResNet-B、Inception-ResNet-C、Reduction-A和Reduction-B模块堆叠组成。
图 7.
Backbone structure of Inception-ResNet-v2
Inception-ResNet-v2 主干结构
Inception模块是Inception系列网络的核心模块,该模块包括多个分支,每个分支使用不同大小的卷积核来提取特征,然后将这些特征进行拼接,形成最终的输出。Reduction模块用于减小特征图的尺寸,并提高网络的计算效率。该模块包括一个池化层和多个卷积层,用于将输入特征图压缩为较小的尺寸,并增加特征的抽象性。Inception-ResNet模块结合了ResNet网络的残差连接和Inception模块的多尺度特征提取功能,用于加深网络的层数并提高网络性能。该模块的每个分支包括一个Inception模块和一个残差连接,用于提取不同尺度的特征并融合这些特征,从而保证网络的梯度传播和网络性能的稳定性。
一个完整心动周期波形主要由P波、QRS复合波和T波组成,其中QRS波是ECG信号中最大的波形,是判断发生心律失常与否的重要依据。根据这个特点,本文利用注意力机制去自适应关注QRS波,抑制对其他波的关注,进而提高模型的分类性能。这是本文对Inception-Restnet-v2进行改进的思想来源。因此,针对心律失常分类任务,本文在Inception-ResNet-v2中的Inception-ResNet-C模块中的卷积层引入CBAM注意力机制对网络进行改进。引入注意力机制的Inception-ResNet-C模块的结构如图8所示。
图 8.
Inception-ResNet-C network structure added by CBAM
加入CBAM的Inception-ResNet-C网络结构
2. 实验与结果分析
2.1. 实验平台与评价指标
本文所有实验软件环境基于Pytorch深度学习框架下进行开发,硬件环境的GPU为AMD EPYC 7543 32-Core Processor,GPU为RTX3090 24 GB。实验选择准确率(accuracy,Acc)、灵敏度(sensitivity,Sen)、阳性预测值(positive predictive value,Ppv)来定量评估模型的性能[30],计算方法如下式。
![]() |
4 |
![]() |
5 |
![]() |
6 |
2.2. DCGAN有效性实验
实验步骤如下:① 在intra-patient范式中,将稀少的V、S、F和Q类的心拍数量扩充至89 000个,并将数据集分为70%的训练集和30%的测试集。② 在inter-patient范式中,根据AAMI标准,将MITDB数据库48个患者的数据按患者的个体差异性划分训练集(DS1)和测试集(DS2)。将训练集DS1中的V、S、F和Q类心拍增加到45 700个。③ 网络迭代训练100次,训练过程中使用交叉熵函数计算损失率,批次大小设置为64。网络的权重和偏置优化使用自定义的Adam衰减策略:初始学习率设置为0.001,每经过10个epoch学习的衰减为原来的0.1。
如表3所示,在inter-patient范式下使用DCGAN平衡数据后,整体准确率提高了5.94%,性能明显改善。在intra-patient范式下,平衡数据集后整体准确率提高了1.47%。对于特征相似的V类和S类的Sen分别提升了1.19%和6.15%。综上所述,使用DCGAN平衡数据集有助于提高模型的分类性能。
表 3. Performance before and after balancing data sets.
数据集平衡前后性能表现
数据 | 范式 | N | V | S | F | Q | 整体准确率 | |||||||||
Sen | Ppv | Sen | Ppv | Sen | Ppv | Sen | Ppv | Sen | Ppv | |||||||
Unbalance | inter-patient | 98.35% | 99.08% | 93.82% | 74.91% | 74.88% | 79.91% | 18.18% | 8.88% | ― | ― | 89.54% | ||||
intra-patient | 99.28% | 98.19% | 97.47% | 96.82% | 89.36% | 94.10% | 86.80% | 81.72% | 80.00% | 87.51% | 98.05% | |||||
Balanced | inter-patient | 95.79% | 99.89% | 97.69% | 86.62% | 91.83% | 62.07% | 63.91% | 30.92% | ― | ― | 95.48% | ||||
intra-patient | 99.79% | 99.77% | 98.66% | 99.01% | 95.51% | 94.68% | 90.55% | 92.17% | 92.30% | 100% | 99.52% |
2.3. 本文方法与不同分类网络的比较
本文设计了两组实验,分别在MITDB intra-patient范式和inter-patient范式下对VGG16、ResNet50、原始Inception-ResNet-v2和本文方法进行测试对比,以验证改进的模型对心律失常图像分类的表现。此外,还将本文方法与其他文献中的一维心律失常分类方法进行了对比。
2.3.1. 在MITDB intra-patient范式下的性能比较
使用3.2节intra-patient范式实验步骤,对VGG16、ResNet50和原始Inception-ResNet-v2模型进行训练,性能如表4所示,本文改进后的方法在MITDB数据集intra-patient范式下,性能优于其他几种图像分类网络。相较于原始的Inception-ResNet-v2网络,改进的Inception-ResNet-v2网络中V类的Sen和Ppv分别提升了0.87%和0.65%,S类的Sen提升了3.5%,一定程度上提高了对V类和S类的识别能力,表明了改进网络的有效性。
表 4. Comparison of model performance under intra-patient paradigm.
intra-patient范式下模型性能对比
网络 | N | V | S | F | Q | 整体准确率 | |||||||||
Sen | Ppv | Sen | Ppv | Sen | Ppv | Sen | Ppv | Sen | Ppv | ||||||
注:加粗数据为最优结果 | |||||||||||||||
VGG16 | 95.86% | 97.93% | 92.40% | 96.95% | 82.01% | 89.23% | 88.88% | 74.42% | 91.23% | 99.81% | 97.26% | ||||
ResNet50 | 99.54% | 99.03% | 97.92% | 97.69% | 92.54% | 93.66% | 89.92% | 91.57% | 98.32% | 99.12% | 98.46% | ||||
Inception-ResNet-v2 | 99.82% | 99.50% | 97.79% | 98.36% | 92.01% | 94.45% | 84.21% | 92.11% | 99.49% | 99.90% | 99.35% | ||||
本文方法 | 99.79% | 99.77% | 98.66% | 99.01% | 95.51% | 94.68% | 90.55% | 92.17% | 92.30% | 100% | 99.52% |
2.3.2. 在MITDB inter-patient范式下的性能比较
使用3.2节inter-patient范式实验步骤,VGG16、ResNet50和原始Inception-ResNet-v2在DS2的性能表现如表5所示,改进的Inception-ResNet-v2的性能表现依然优于其他分类网络,相较于原始的Inception-ResNet-v2网络,V类和S类的Sen分别提升了2.76%和5.56%。
表 5. Comparison of model performance under the inter-patient paradigm.
inter-patient范式下模型性能对比
网络 | N | V | S | F | Q | 整体准确率 | |||||||||
Sen | Ppv | Sen | Ppv | Sen | Ppv | Sen | Ppv | Sen | Ppv | ||||||
注:加粗数据为最优结果 | |||||||||||||||
VGG16 | 93.80% | 95.91% | 90.02% | 87.46% | 25.32% | 20.88% | 30.67% | 13.95% | − | − | 90.52% | ||||
ResNet50 | 97.84% | 94.48% | 91.98% | 92.32% | 85.56% | 59.77% | 42.26% | 51.25% | − | − | 91.74% | ||||
Inception-ResNet-v2 | 99.45% | 97.35% | 94.93% | 94.84% | 86.27% | 54.22% | 43.76% | 64.37% | − | − | 94.63% | ||||
本文方法 | 95.79% | 99.89% | 97.69% | 86.62% | 91.83% | 62.07% | 63.91% | 30.92% | − | − | 95.48% |
2.3.3. 与其他分类方法对比
本算法与多个使用MITDB测试的一维心律失常分类方法[12-13,31-34]进行比较,结果如表6所示,本文方法的性能优于一维时序心律失常分类方法,体现了二维图像分类在心律失常识别中的优势。
表 6. Comparison with one-dimensional classification method.
与一维分类方法的比较
3. 讨论
在本文的心律失常分类任务中,VGG16在MITDB intra-patient范式和inter-patient范式下的性能表现并不是最好,通过增加网络的深度来获得更高的分类精度会导致梯度消失和梯度爆炸。为了解决这类问题,研究者引入了残差结构,通过对卷积层前后的恒等运算,可以跳过不需要特征提取的卷积层,进而可以训练更深的网络。从本文的实验结果可知,更深的ResNet50相较于VGG16网络表现更好,在MITDB intra-patient范式和inter-patient范式下分别获得了98.46%和91.74%的分类精度。Inception-ResNet-v2网络结合了Inception和ResNet网络的优点,解决了网络加深带来的计算问题,提升了分类精度。
由于ECG异常信号和正常信号之间的差别很小,本文在Inception-ResNet-C模块中引入轻量级CBAM注意力机制进行改进。利用卷积层中的每个卷积核学习ECG信号的不同特征表示,并在每个通道特征映射中将特征图缩小为一个标量,通过注意向量和上层特征对不同通道的重要性进行调整,让网络自适应地选择每个位置的重要性,从而突出QRS波的位置信息。此外,为了避免网络训练过多关注数量较多的样本,使用DCGAN进行数据平衡。表4和表5表明,在心律失常分类任务中,改进的Inception-ResNet-v2网络相较其他网络,分类性能更好。
从表5可知,在MITDB inter-patient范式下,网络模型的分类性能普遍较差,特别是对S、F和Q类的性能很差,一方面是因为这几类样本数量较少,其次是因为inter-patient范式是根据不同患者的特征进行分类,存在个体差异性。尽管如此,本文方法在inter-patient范式下的性能还是优于其他网络。
4. 结论
针对心律失常的特点,本文提出了一种基于注意力机制的心律失常图像分类方法,采用改进的Inception-ResNet-v2网络结合GASF进行心律失常图像分类。其中在数据预处理部分,提出了一种基于DCGAN的数据平衡方法,以解决不平衡数据集对分类模型性能的影响。实验结果表明,在MITDB数据集intra-patient和inter-patient范式下,整体分类准确率分别为99.52%和95.48%,相较于主流的图像分类方法和一维分类方法,有更好的性能表现。算法适用于云平台进行长程远程辅助诊断系统。
重要声明
利益冲突声明:本文全体作者均声明不存在利益冲突。
作者贡献声明:万相奎负责概念化和监督工作。罗靖负责方法论、编程和文章写作。刘扬负责调查和可视化工作。彭兴卫和王晞负责实验验证。陈云帆负责写作、评论与编辑。
Funding Statement
国家自然科学基金项目(61571182)
The National Natural Science Foundation of China
References
- 1.中国心血管健康与疾病报告编写组. 中国心血管健康与疾病报告2021概要. 心脑血管病防治, 2022, 22(4): 20-36, 40.
- 2.Engin M ECG beat classification using neuro-fuzzy network. Pattern Recogn Lett. 2004;25(15):1715–1722. doi: 10.1016/j.patrec.2004.06.014. [DOI] [Google Scholar]
- 3.Lv S Q, Wang Z P, Na J Y. Arrhythmia classification of merged features method based on SENet and BiLSTM// 2021 4th International Conference on Information Communication and Signal Processing (ICICSP). Paris: ICICSP, 2021: 162-167.
- 4.Latif G, Anezi F Y A, Zikria M, et al. EEG-ECG signals classification for arrhythmia detection using decision trees// 2020 4th International Conference on Inventive Systems and Control (ICISC). Coimbatore: IEEE, 8: 192-196.
- 5.Kung B H, Hu P Y, Huang C C, et al An efficient ECG classification system using resource-saving architecture and random forest. IEEE J Biomed Health. 2021;25(6):1904–1914. doi: 10.1109/JBHI.2020.3035191. [DOI] [PubMed] [Google Scholar]
- 6.Khatibi T, Rabinezhadsadatmahaleh N Proposing feature engineering method based on deep learning and KNNs for ECG beat classification and arrhythmia detection. Phys Eng Sci Med. 2020;43(1):49–68. doi: 10.1007/s13246-019-00814-w. [DOI] [PubMed] [Google Scholar]
- 7.Yogesh D, Vedavathi D, Hiremath D S G Implementation of five classes of automated ECG arrhythmia classification using KNN classifier. Int J Creat Res Thoughts. 2021;9(2):635–640. [Google Scholar]
- 8.Liang W, Zhang Y L, Tan J D, et al A novel approach to ECG classification based upon two-layered HMMs in body sensor networks. Sensors (basel) 2014;14(4):5994–6011. doi: 10.3390/s140405994. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 9.唐建军, 李兴秀, 华晶, 等. 基于神经网络的心电图检测分类综述. 计算机应用与软件, 2021, 38(5): 1-9, 41.
- 10.Goodfellow I J, Bengio Y, Courville A C Deep learning. Nature. 2015;521:436–444. doi: 10.1038/nature14539. [DOI] [PubMed] [Google Scholar]
- 11.Xia Y F, Xie Y Q A novel wearable electrocardiogram classification system using convolutional neural networks and active learning. IEEE Access. 2019;7:7989–8001. doi: 10.1109/ACCESS.2019.2890865. [DOI] [Google Scholar]
- 12.Kiranyaz S, Ince T, Gabbouj M Real-time patient-specific ECG classification by 1-d convolutional neural networks. IEEE T Biomed Eng. 2016;63:664–675. doi: 10.1109/TBME.2015.2468589. [DOI] [PubMed] [Google Scholar]
- 13.Obeidat Y M, Alqudah A M A hybrid lightweight 1d CNN-LSTM architecture for automated ECG beat-wise classification. Trait Signal. 2021;38:1281–1291. doi: 10.18280/ts.380503. [DOI] [Google Scholar]
- 14.骆俊锦, 王万良, 王铮, 等 基于时序二维化和卷积特征融合的表面肌电信号分类方法. 模式识别与人工智能. 2020;33(7):588–599. doi: 10.16451/j.cnki.issn1003-6059.202007002. [DOI] [Google Scholar]
- 15.Baspinar U, Şenyurek V Y, Doğan B, et al A comparative study of denoising sEMG signals. Turk J Electr Eng Co. 2015;23:931–944. doi: 10.3906/elk-1210-4. [DOI] [Google Scholar]
- 16.Sharma A, Singh P K, Chandra R SMOTified-GAN for class imbalanced pattern classification problems. IEEE Access. 2022;10:30655–30665. doi: 10.1109/ACCESS.2022.3158977. [DOI] [Google Scholar]
- 17.Huang J S, Chen B G, Yao B, et al ECG arrhythmia classification using STFT-based spectrogram and convolutional neural network. IEEE Access. 2019;7:92871–92880. doi: 10.1109/ACCESS.2019.2928017. [DOI] [Google Scholar]
- 18.Wang T, Lu C H, Sun Y N, et al Automatic ECG classification using continuous wavelet transform and convolutional neural network. Entropy. 2021;23(1):119. doi: 10.3390/e23010119. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 19.Zyout A, Alquran H, Mustafa W A, et al Advanced time-frequency methods for ECG waves recognition. Diagnostics. 2023;13(2):308. doi: 10.3390/diagnostics13020308. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 20.Moody G B, Mark R G The impact of the MIT-BIH arrhythmia database. IEEE Eng Med Biol. 2001;20:45–50. doi: 10.1109/51.932724. [DOI] [PubMed] [Google Scholar]
- 21.Bajaj A, Kumar S A robust approach to denoise ECG signals based on fractional stockwell transform. Biomed Signal Proces. 2020;62:102090. doi: 10.1016/j.bspc.2020.102090. [DOI] [Google Scholar]
- 22.Dragomiretskiy K, Zosso D Variational mode decomposition. IEEE T Signal Proces. 2014;62:531–544. [Google Scholar]
- 23.Kapfo A, Dandapat S, Bora P K Automated detection of myocardial infarction from ECG signal using variational mode decomposition based analysis. Healthcare Technol Lett. 2020;7:155–160. doi: 10.1049/htl.2020.0015. [DOI] [Google Scholar]
- 24.Wang Y, Bai D Y. Application of wavelet threshold method based on optimized VMD to ECG denoising// 2021 IEEE 3rd International Conference on Frontiers Technology of Information and Computer (ICFTIC). Qingdao: ICFTIC, 2021: 741-744.
- 25.Chawla N, Bowyer K, Hall L O, et al SMOTE: synthetic minority over-sampling technique. J Artif Intell Res. 2002;16:321–357. doi: 10.1613/jair.953. [DOI] [Google Scholar]
- 26.Shukla J, Panigrahi B K, Ray P K Power quality disturbances classification based on gramian angular summation field method and convolutional neural networks. Int T Electr Energy. 2021;31(12):e13222.1–e13222.16. [Google Scholar]
- 27.Woo S, Park J, Lee J, et al. CBAM: convolutional block attention module// European Conference on Computer Vision (ECCV). Munich: ECCV, 2018: 3-19.
- 28.Niu C M, Nan F Z, Wang X R A super resolution frontal face generation model based on 3DDFA and CBAM. Displays. 2021;69:102043. doi: 10.1016/j.displa.2021.102043. [DOI] [Google Scholar]
- 29.Szegedy C, Ioffe S, Vanhoucke V, et al. Inception-v4, Inception-ResNet and the impact of residual connections on learning. Comput Sci, 2017: 11231.
- 30.Sun L, Wang Y L, Qu Z G, et al BeatClass: a sustainable ECG classification system in IoT-based eHealth. IEEE Internet Things. 2022;9:7178–7195. doi: 10.1109/JIOT.2021.3108792. [DOI] [Google Scholar]
- 31.Wang H R, Shi H T, Chen X J, et al An improved convolutional neural network based approach for automated heartbeat classification. J Med Syst. 2019;44(2):35. doi: 10.1007/s10916-019-1511-2. [DOI] [PubMed] [Google Scholar]
- 32.Sellami A, Hwang H A robust deep convolutional neural network with batch-weighted loss for heartbeat classification. Expert Syst Appl. 2019;122:75–84. doi: 10.1016/j.eswa.2018.12.037. [DOI] [Google Scholar]
- 33.Huang H F, Liu J, Zhu Q, et al A new hierarchical method for inter-patient heartbeat classification using random projections and RR Intervals. Biomed Eng Online. 2014;13:90. doi: 10.1186/1475-925X-13-90. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 34.Garcia G, Moreira G J P, Menotti D, et al Inter-patient ECG heartbeat classification with temporal VCG optimized by PSO. Sci Rep-UK. 2017;7(1):10543. doi: 10.1038/s41598-017-09837-3. [DOI] [PMC free article] [PubMed] [Google Scholar]