Skip to main content
Sheng Wu Yi Xue Gong Cheng Xue Za Zhi = Journal of Biomedical Engineering logoLink to Sheng Wu Yi Xue Gong Cheng Xue Za Zhi = Journal of Biomedical Engineering
. 2022 Aug 25;39(4):730–739. [Article in Chinese] doi: 10.7507/1001-5515.202112013

基于卷积和注意力机制的医学细胞核图像分割网络

Medical nucleus image segmentation network based on convolution and attention mechanism

Peipei ZHI 1, Jianzhi DENG 1,2,*, Zhenxiao ZHONG 1
PMCID: PMC10957366  PMID: 36008337

Abstract

Although deep learning plays an important role in cell nucleus segmentation, it still faces problems such as difficulty in extracting subtle features and blurring of nucleus edges in pathological diagnosis. Aiming at the above problems, a nuclear segmentation network combined with attention mechanism is proposed. The network uses UNet network as the basic structure and the depth separable residual (DSRC) module as the feature encoding to avoid losing the boundary information of the cell nucleus. The feature decoding uses the coordinate attention (CA) to enhance the long-range distance in the feature space and highlights the key information of the nuclear position. Finally, the semantics information fusion (SIF) module integrates the feature of deep and shallow layers to improve the segmentation effect. The experiments were performed on the 2018 data science bowl (DSB2018) dataset and the triple negative breast cancer (TNBC) dataset. For the two datasets, the accuracy of the proposed method was 92.01% and 89.80%, the sensitivity was 90.09% and 91.10%, and the mean intersection over union was 89.01% and 89.12%, respectively. The experimental results show that the proposed method can effectively segment the subtle regions of the nucleus, improve the segmentation accuracy, and provide a reliable basis for clinical diagnosis.

Keywords: Nucleus segmentation, Feature extraction, Information fusion, Residual network, Coordinate attention

引言

医学细胞核图像的分割结果是病理诊断的重要依据,能为医生提供更多关于病情的判断,并能辅助医生制定相应的手术治疗计划等。但即便是有经验的专家,在视觉疲劳的情况下,要从病理图像中辨别出病变部位,仍存在漏诊和误诊的可能,影响判断[1]。同时在细胞核分割时可能出现核边界模糊、形态微小、细胞黏附或重叠等现象,导致在确定细胞核位置和形状时存在较大困难,影响细胞核分割的准确性。所以,利用计算机辅助技术实现准确的细胞核分割在病理诊断中具有重要的现实意义。

目前对细胞核分割所采用方法分为传统分割方法和基于深度学习分割方法。其中传统分割方法有基于阈值分割[2]、分水岭分割[3]、形态学处理[4]等。基于阈值分割方法根据设定阈值或参数划分图像像素信息分割细胞核,该方法操作简单、容易计算,但是忽略了像素空间信息的重要性,造成细胞核的部分信息损失。分水岭分割方法利用细胞核图像内的灰度分布与背景颜色差异来切分细胞核,对边界不清楚的细胞核有一定优势,但也会发生过分割的问题。而形态学处理分割方法也易受到背景因素的影响,导致分割结果模糊。例如,Eka等[5]提出了基于全局自适应阈值分割方法的医学血细胞图像分割模型,但部分特征仍有丢失。Gu等[6]提出了用于细胞核聚类分割的标记控制分水岭算法,分割效果并不明显。因此传统分割方法仍局限于通过先验知识分割细胞核,在分割背景复杂的细胞核图像时难以得到准确的结果。

近年来,基于深度学习分割方法开始应用于医学细胞核图像分割中,总体性能优于传统分割方法。具有强自主学习能力的卷积神经网络(convolutional neural network,CNN)[7]在不同网络层中利用滑窗机制进行像素级分割,自动学习图像中的有效特征,但效率较低。全卷积网络(fully convolutional network,FCN)[8]将网络全连接层替换为全卷积层,为细胞核分割带来更多可能性。U型网络(UNet)[9]在医学图像处理中应用广泛,通过跳跃连接融合解码端和编码端的特征信息,强化细胞核分割的效果。残差UNet(residual UNet,ResUNet)[10]则通过残差学习的设计简化网络训练,促进特征信息间的交流,进一步提高图像分割精度。汪豪等[11]通过改进UNet从而提高计算机断层扫描(computed tomography,CT)图像中直肠癌的分割精度。Yao等[12]在CNN上借助稀疏形状模型和局部形变模型实现医学细胞核分割的任务。Zhang等[13]设计了自下而上的逆UNet,提取高层次信息,实现对染色图像细胞核边缘特征的细化。Graham等[14]嵌套了多深度的UNet和混合注意力模块,用于探索信息间的关联,增强细胞核边界的特征表示。He等[15]在空间及通道维度上进行两个注意力机制模块的相互融合,增强语义分割的便利性,实现对病理图像细胞核的有效分割。

上述方法通过融合不同深度的特征信息,在细胞核图像分割研究上有很大的进展,但由于只利用了浅层特征预测,导致深层语义特征没有得到充分的利用,影响了网络对目标的准确定位。并且在实际处理过程中细胞核位置是非均匀分布的,细胞核较小以及背景对比度较低,便难以提取完整的细胞核特征,使得分割效果并不理想。针对上述存在的问题,本文基于深度可分离和坐标注意力(coordinate attention,CA)机制构建了一个适用于细胞核图像分割的深度CA-ResUNet(depthwise CA-ResUNet,DCA-ResUNet)网络,通过引入残差学习解决网络退化问题,主要工作如下:

(1)在编码特征提取阶段,设计了深度可分离残差卷积(depthwise separable residual convolutional,DSRC)模块,降低网络参数量,利用残差学习增大网络的感受野,提取更丰富的特征信息。

(2)在解码特征融合阶段,设计了一个关注特征空间上远程距离信息的CA残差(CA residual,CAR)模块特征进行筛选特征,缓解信息损失以优化小目标细胞核的细节,并在跳跃连接上利用语义信息融合(semantic information fusion,SIF)模块聚集不同维度上的特征,避免端到端之间的语义间隙问题。

(3)在网络训练过程中,混合了两种不同的损失函数缓解不平衡性,增强训练效果。

1. DCA-ResUNet网络构建

1.1. 网络整体结构概述

UNet是一种上采样与下采样呈U型对称的结构,利用跳跃连接可有效融合深层全局特征和浅层细节信息,从而解决医学图像的分割预测[16]。因此本文采用UNet作为分割网络的基础结构,设计了具有对称结构的DCA-ResUNet,如图1所示,在网络中输入分辨率大小为256 × 256的图像数据集进行训练与测试。在编码特征提取阶段,初始卷积层使用了3 × 3卷积核,初始特征通道为16;为捕捉不同层次的语义信息,同时降低模型参数量,利用DSRC模块替代传统卷积,并逐级进行4次最大池化2 × 2的下采样特征提取操作,最终得到尺寸缩小1/8、通道深度扩大16倍的特征图。同时在跳跃连接上利用SIF模块,融合前面不同尺度特征,并补偿每层特征图的信息,提高训练精度。为了促进局部细节与全局特征的相关依赖性,提升特征表示能力,解码特征融合阶段引入改进的CA机制,设计了CAR模块。随后利用双线性插值和反卷积的结合逐级进行4次上采样操作,以平衡该阶段的计算量,还原图像尺寸,最后经过一个2 × 2反卷积,输出最终的图像特征,这期间也与原图像进行代价损失的计算,直至损失值趋于最低平衡,使细胞核分割精度不断提升。

图 1.

图 1

Structure of DCA-ResUNet

DCA-ResUNet结构

1.2. 编码特征提取阶段

原始UNet中使用了大量的3 × 3卷积(Conv 3 × 3),会不断增加网络的参数量。为了在提高网络模型运算速度的同时进一步压缩网络参数量,本文DCA-ResUNet网络中选择文献[17]提出的深度可分离实现模型压缩。深度可分离将传统卷积拆分为深度方向卷积(depthwise convolution,DWConv)和逐点方向卷积(pointwise convolution,PWConv)两部分。假设输入H × W × M的特征图,其中H为高,W为宽,M为输入通道大小,经过卷积核大小为K × K的卷积操作后,输出H × W × N的特征图,其中N为输出通道大小。则传统卷积的参数计算量为H × W × M × K × K × N。而深度可分离的参数计算量为H × W × M × K × K + H × W × M × N。因此可得出深度可分离与传统卷积对应的参数计算量之比 Inline graphic 如式(1)所示:

1.2. 1

由式(1)可知,与传统卷积相比,使用深度可分离实现了区域与通道间的一个分离,使网络极大地降低参数计算量并压缩特征图。但随着编码网络中层数越深,即便卷积层能提取到更多的细胞核区域特征,分割精度也会随之趋于饱和。此时添加残差学习能更好拟合通道间的相关性,同时缓解梯度消失或爆炸的问题[18]。因此本文结合残差学习设计一个DSRC模块,通过该模块可增强网络对输入图像的表征能力,以提高细胞核位置复杂性的适合度。原始的深度可分离通过线性整流单元(rectified linear unit,ReLU)激活函数后易输出零信息,不利于提取特征,所以本文在经过DWConv和PWConv后利用批归一化层(batch normalization,BN)和带泄露的ReLU(Leaky ReLU)激活函数输出特征,防止损失信息。

DSRC模块结构如图2所示。输入特征X经过一个2 × 2卷积(Conv2 × 2)提取初始特征,该运算过程如式(2)所示:

图 2.

图 2

Structure of DSRC module

DSRC模块结构

1.2. 2

其中,b表示偏置,*表示卷积操作,W0为该层卷积核的权重,F1则代表卷积操作后的输出特征。然后经过一个深度方向上的3 × 3卷积(DWConv3 × 3)和一个点方向上的1 × 1卷积(PWConv1 × 1)操作,该运算过程如式(3)所示:

1.2. 3

其中,W1为DWConv3 × 3的权重,W2为PWConv1 × 1的权重,σ为Leaky ReLU激活函数。FX)则表示上一个特征F1经过深度可分离后的输出特征,最后结合残差学习映射原始输入特征X,得到最终在图像上提取到的特征HX),表达式如式(4)所示:

1.2. 4

1.3. 解码特征融合阶段

图像中易存在少量被忽略的高频信息,以及数据样本不足的问题均会导致模型的精度有所下降。即使编码网络关注到细胞核的大量细节特征,但捕捉全局位置信息时较不全面,会产生特征描述的差异,因此可利用注意力机制提高网络对感兴趣特征的关注度。挤压激励(squeeze and excitation,SE)[19]注意力机制、卷积块注意力模块(convolution block attention module,CBAM)[20]机制往往会忽略空间上的信息特征,失去了对远距离关系的选择。而CA机制能在捕获通道信息的同时,保留了在选择注意力时产生的重要方向信息,增强远距离依赖程度,提高网络对位置的敏感性,有助于网络制定出良好的识别决策。因此本文在解码特征融合阶段,引入CA机制,构造CAR模块,与编码网络中将BN和Leaky ReLU激活函数置于卷积层之前不同,可防止网络前向反馈中过度收敛。CAR模块结构如图3所示。首先输入特征Xn − 1会先经过一个1 × 1卷积层(Conv1 × 1),目的是实现降维,该阶段输出特征用Y表示。随后经过一个DWConv3 × 3和PWConv1 × 1的卷积操作提取更多信息,得到新的输出特征H1,具体过程如式(5)所示:

图 3.

图 3

Structure of CAR module

CAR模块结构

1.3. 5

其中,W1W2仍然表示DWConv3 × 3和PWConv1 × 1的权重,σ为Leaky ReLU激活函数。接下来分离该输出特征为两个分支,第一个分支仍为原输出特征H1,第二个分支经过CA机制输出的特征H2。对两个分支的输出相乘进行特征融合,该过程如式(6)所示:

1.3. 6

其中,W3表示经过CA机制操作,H则为融合两个分支模块后的输出特征。同时在残差学习的映射下与最初特征相加,再通过Conv1 × 1还原维度,具体过程如式(7)所示:

1.3. 7

其中,W4为Conv1 × 1操作,Xn − 1为CAR模块的最初输入特征,Xn作为CAR模块最终输出特征。

1.3.1. 改进的CA机制

文献[21]提出的CA机制结构中,经过拼接(Concat)和卷积运算(Conv2d)后融合了两个方向上的特征图,然后经BN层输出新的特征,并进行特征拆分。但BN层在一定程度上会过度曝光图像,影响原本图像的对比度变化,所以本文所提方法去除了BN层,改进后的CA机制结构如图4所示。

图 4.

图 4

Structure of CA mechanism

CA机制结构

CA机制主要分为坐标信息嵌入和注意力生成两个步骤,通过在不同方向上分解通道注意力,生成一对方向感知和位置敏感的注意力图,最后在通道上以加权的方式进行空间通道上的融合,再次表示输入特征。假设输入通道大小为C的特征图E,采用大小为(H,1)的池化核在水平方向上做X轴平均池化操作(X Avg Pool),采用大小为(1, W)的池化核在竖直方向上做Y轴平均池化操作(Y Avg Pool)。将特征图从水平与竖直方向上进行通道编码,以保持空间位置上的坐标信息。其具体过程如式(8)、式(9)所示:

1.3.1. 8
1.3.1. 9

其中,W、H分别为输入特征图的宽、高。Eh, j)为输入特征E在高为h、宽为j的像素位置信息,Ei, w)为输入特征E在高为i、宽为w的像素位置信息。输出的ZhZw分别为水平与竖直方向上生成的具有全局感受野的坐标感知注意力特征。为重新调整通道区域的特征权重,将单向的特征图ZhZw进行拼接,通过卷积运算操作、非线性激活函数的变换,其运算过程 Inline graphic 如式(10)所示:

1.3.1. 10

其中,δ表示非线性激活函数,F表示卷积运算操作,[ , ]为维度的拼接操作,则f为空间信息基于水平、竖直方向上的中间特征图。随后将f沿着水平与垂直方向拆分(Split)为两个单独的特征图张量,分别是大小为C × H × 1的 f h,以及C × 1 × Wf w,利用卷积操作、S型生长曲线(Sigmoid)激活函数调整两个特征图张量,具体计算过程如式(11)、式(12)所示:

1.3.1. 11
1.3.1. 12

其中,Fh、Fw分别表示对单独张量Inline graphicInline graphic在各自方向上的卷积操作,ω表示Sigmoid激活函数。输出的g hgw分别为水平和竖直方向上的注意力权重,并将其作用于输入特征E。最后,输入特征E在通道上高为i宽为j的特征E(i, j),经过注意力模块作用的最终输出Z如式(13)所示:

1.3.1. 13

将注意力权重与原始特征进行像素点相乘(Multiply)后能够增强对空间细节位置的信息上的关注度,突出分割目标的关键特征,让网络对细节位置的信息有较强的敏感度。

1.4. 跳跃连接阶段SIF模块

在特征解码中将上采样映射的信息充分与编码中同一尺度特征进行不同深浅层的融合,可指导网络在深层提取更多有用的分割信息[22]。而原始UNet网络中编解码间使用跳跃连接将特征表示相连起来,易存在语义间隙的麻烦,对结果造成影响[23]。因此本文设计了一个兼容编码网络原始特征、解码网络抽象信息的SIF模块,其结构如图5所示。该模块由两个Conv3 × 3和一个Conv1 × 1连接后相互堆叠而成,利用Conv3 × 3补偿语义特征,Conv1 × 1防止边缘信息丢失,同时提取高层特征。解码网络在通过语义补偿得到边缘信息特征后,通过ReLU和BN叠加以映射到下一层,进行卷积运算。

图 5.

图 5

Structure of SIF module

SIF模块结构

1.5. 算法损失函数的改进

细胞核的分割可以看作是像素分类问题,即背景和核的分割,通常利用二元交叉熵(binary cross entropy,BCE)作为BCE损失函数(BCE_loss),从而区分像素级别的目标特征,其定义如式(14)所示:

1.5. 14

其中,M为训练批次,c取值范围为1~MTc表示标签图像的真实分割结果,Pc表示网络预测的分割结果。戴斯(Dice)损失函数(Dice_loss)也是医学图像分割中常用到的损失函数之一,其定义如式(15)所示:

1.5. 15

其中,使用Dice_loss能较好处理像素类别不平衡的问题,但不利于提取小目标的特征。因此本文在构建的DCA-ResUNet算法中结合两者,缓解不平衡性,使训练过程更加高效稳定。最终总损失函数(Loss)如式(16)所示,设置权重系数α为0.3。

1.5. 16

2. 实验结果与分析

2.1. 数据集及预处理

本文使用了两个公开的细胞核病理数据集来评估本文算法性能:① 2018年数据科学碗(2018 data science bowl,DSB2018)(网址为:https://www.kaggle.com/c/data-science-bowl-2018/data)挑战赛上提供的细胞核图像集,共有670张原始图像以及对应的标签图像,估计有29 500个不同的细胞核[24]。② 三阴性乳腺癌(triple negative breast cacer,TNBC)患者的病理组织图像集(网址为:https://zenodo.org/record/1175282),共计50张原始图像和标签图像[25]

本文按照7:3比例将数据集划分为训练集和测试集。为保留原始图像的细节信息,并提高计算效率,本文将两个数据集中图像分辨率均调整为256 × 256。为避免数据量少导致的过拟合情况,使用不同的数据增强策略实现数据集扩充,如随机旋转与翻转、随机裁剪以及放大缩小等,1张图像可扩充出另外7张图像。除此之外,在两个数据集中的原始图像大小与亮度均有不同,以及有黑白图像或是染过荧光色的细胞核图像,易存在色彩分布较不平衡的问题,因此为避免图像受自身色彩、光照等不利的影响,本文利用直方图均衡化、伽马变换等增强对比度的方式,将细胞核位置与背景相互突显,同时采用归一化方式调节灰度图片,使网络模型可准确预测细胞核位置。

2.2. 实验细节

本实验选用的平台为:深度学习框架Pytorch(Facebook,美国),编程语言Python 3.6(Python Software Foundation,荷兰),图形处理器(graphics processing unit,GPU)硬件NVIDIA GTX 2080Ti(NVIDIA,美国)。通过多次实验进行微调后,实验初始学习率设置为0.000 1,动量参数设置为0.9。在训练50个迭代周期(epoch)后改变学习率,每批次训练大小设置为5,总共迭代100次。同时采用自适应矩估计(adaptive moment estimation,Adam)优化算法对模型进行训练。当网络损失不再下降或者达到预设迭代周期的时候,停止训练网络,保存这期间训练集中准确率最高时的权重参数与结果。

2.3. 评价标准

为实现网络对细胞核分割结果的定量分析,本文采用豪斯多夫距离(Hausdorff distance,HD)、精确率(precision,PRE)、戴斯相似性系数(Dice similarity coefficient,DSC)、灵敏度(sensitivity,SEN)、平均交并比(mean intersection over union,MIOU)这五个性能指标作为评价标准。

(1)HD,对边界区域较为敏感,衡量了网络分割结果和标签图像的最大不匹配度[26]。计算方法如式(17)所示。其中,max{dXY, dYX}表示了集合X中像素点x到集合Y中像素点y的最小距离的最大值。HD值越小,就代表了分割结果与金标准更接近,分割效果越好。

2.3. 17

(2)PRE,是正确分割细胞核的部分与预测分割出细胞核部分的一个比例,比例越高,效果越好。定义如式(18)所示,其中真阳性(true pssitive,TP)代表实际为细胞核,分割结果预测也为细胞核部分。假阳性(false pssitive,FP)代表实际为背景部分,分割结果预测为细胞核。

2.3. 18

(3)DSC,用于衡量分割结果和标签图像之间的重叠,值介于0~1之间,其值越大,表示分割效果越好[27]。定义如式(19)所示,其中A为预测结果,B表示标签图像的结果。AB的交集代表正确分割的细胞核区域,AB的并集代表所有分割结果。

2.3. 19

(4)SEN,表示网络正确分割细胞核的部分占原始图像中所有细胞核部分的比例。定义如式(20)所示,其中假阴性(false negative, FN)代表错误识别为背景的部分。

2.3. 20

(5)MIOU,用于计算网络预测结果和真实结果的交集与并集之比,然后求出平均值,计算方法如式(21)所示。

2.3. 21

2.4. 实验结果及分析

为验证本文网络的分割性能,本文分别在DSB2018、TNBC数据集上进行测试,并与FCN、UNet、深度研究实验室网络(Deeplabv3)[28]、ResUNet、CBAM-ResUNet网络保持同样的实验设置进行对比。不同网络在DSB2018和TNBC数据集上的分割定量结果如表1所示,采用加粗字体表示较优指标。

表 1. Quantitative comparison of different methods on DSB2018 and TNBC datasets.

不同方法在DSB2018和TNBC数据集上的分割定量表示

数据集 网络 HD/cm PRE/(%) DSC/(%) SEN/(%) MIOU/(%)
DSB2018 FCN 2.712 85.41 80.91 85.15 81.52
UNet 2.750 85.84 81.70 85.31 82.83
Deeplabv3 2.629 86.68 82.61 86.60 84.03
ResUNet 2.621 87.35 82.29 86.95 83.98
CBAM-ResUNet 2.212 88.10 83.99 88.65 85.95
DCA-ResUNet 2.179 92.01 88.91 90.09 89.01
TNBC FCN 2.853 78.12 72.99 80.17 78.53
UNet 2.756 80.64 81.72 83.59 80.15
Deeplabv3 2.631 79.72 82.32 84.58 79.53
ResUNet 2.617 83.41 83.29 86.93 83.89
CBAM-ResUNet 2.254 88.53 83.99 89.21 86.45
DCA-ResUNet 2.195 89.21 89.13 91.10 89.12

表1可知,在DSB2018数据集上,本文DCA-ResUNet网络的所有评价指标均优于其他对比网络。在TNBC数据集上,本文DCA-ResUNet网络的评价指标HD、PRE、DSC、SEN和MIOU也有较为优异的表现。这表明了本文提出的DCA-ResUNet网络较其他对比网络模型能有效提升网络分割性能,在面对细胞核与背景对比度较低时,本文算法也能较好地对两者进行分类,进一步提高分割的准确度。

为进一步感受不同分割网络结果在视觉上的差异,从两个数据集中选取部分图片的分割结果进行定性分析。如图6所示,展示了不同方法下的分割结果可视化。其中,图6红色圆圈处可观察到不同方法分割结果的局部变化情况;图6第一行至第四行为DSB2018数据集中部分细胞核图像的分割结果,第五、六行为TNBC数据集中部分细胞核图像的分割结果;第一列和第二列分别是原始图像和标签图像,第三列至第六列分别是FCN、UNet、Deeplabv3、ResUNet、CBAM-ResUNet、DCA-ResUNet的分割结果。如图7所示,是不同方法下任意一个分割结果图的局部放大效果,在对比之下可以看出分割的效果越来越好,对细胞边缘的分割也更加平滑。

图 6.

图 6

Visualized segmentation results of different methods on DSB2018 and TNBC datasets

不同方法在DSB2018和TNBC数据集上的分割结果可视化

图 7.

图 7

Partially enlarged segmentation results with different methods

不同方法在图像上的局部放大分割效果

综合表1图6图7 可知,在两个数据集上传统UNet的分割结果均优于FCN,这是因为FCN在上采样过程中缺少浅层信息,只关注了深层特征,出现漏检情况。UNet与Deeplabv3分割效果相对于FCN更好一些,UNet因为融合深浅层特征,提高了分割精度,但由于过分强调细节信息,导致分割效果较为粗糙。Deeplabv3使用金字塔策略缓解了损失细节信息的问题,但仍有分割不完全的现象。相比之下,ResUNet和CBAM-ResUNet在保留不同特征的基础上分别使用残差学习和注意力机制进行特征加强,进一步改善分割效果,但都没有突出全局细节信息在细胞核分割中的优势。ResUNet在跳跃连接中融合上下文语义信息后能更深地提取特征,而大量下采样会导致图像丢失一些有用特征,使得精确率较低。而CBAM-ResUNet因为引入注意力机制,使得网络加大对重要特征的判断,但在面临细胞核边缘模糊时,效果并不好。本文提出的DCA-ResUNet网络,一方面通过DSRC模块增大感受野;另一方面利用CA机制加强空间方向上特征的远程依赖,获取跨通道信息,充分利用全局细节信息进行分割,在努力分割细小细胞核的同时,避免细胞黏附以及欠分割的现象,得到接近标签图像的效果,并在分割性能上有了一定的提升。

为了验证网络模型参数性能,将本文DCA-ResUNet网络与其他分割网络进行性能对比,实验结果如表2所示,加粗字体表示较优指标。从表2可知,本文所提方法相比于其他网络的参数量有一定降低,运行速度和ResUNet相接近,但本文算法的精确率均优于其他网络。

表 2. Performance comparison of different networks.

不同网络的性能对比

模型 参数量/个 时间/ms DSB2018 TNBC
PRE/(%) PRE/(%)
FCN 14.85 × 107 479 85.41 78.12
UNet 3.205 × 107 246 85.84 80.64
Deeplabv3 3.211 × 107 252 86.68 79.72
ResUNet 2.523 × 107 201 87.35 83.41
DCA-ResUNet 1.867 × 10 7 195 92.01 89.21

图8所示,不同网络在DSB2018数据集训练中迭代损失函数的曲线变化情况均有不同;而在TNBC数据集上的曲线变化基本一致,故不予展示。由图8可知,本文所提算法的起始损失函数值最低,在前20次迭代周期中损失迅速下降,之后逐渐趋于平稳,在迭代100次后损失函数的曲线没有其他变化,损失函数值也得到了最低,此时曲线收敛速度也优于其他几种网络。其中网络模型收敛越快,代表网络学习能力更强,细胞核分割的准确度越高。

图 8.

图 8

Comparison of training loss functions on DSB2018

在DSB2018数据集上的训练损失函数曲线对比

本文在DSB2018数据集上通过消融实验证明了网络中各个模块的有效性,实验结果如表3所示。从表3可知,只添加DSRC模块的网络在分割性能评价指标上均有提升,说明有效的编码网络能得到更具体的特征信息。只添加CAR模块的基础网络,分割性能并未减弱,说明全局细节信息对分割结果同样重要。而同时引入DSRC模块和CAR模块的网络相较于前面的模块在分割性能上都有了一定的提升,相比ResUNet在PRE、SEN上提升明显。在这个网络基础上,引入SIF模块后可融合深浅层的信息,其PRE、DSC和SEN均有提升,从而验证了所提出的模块对于提升细胞核分割性能具有一定的优势。

表 3. Ablation studies between different modules on the DSB2018 nuclear segmentation.

所提模块在DSB2018细胞核分割上的消融研究

Model SIF HD/
cm
PRE/
(%)
DSC/
(%)
SEN/
(%)
MIOU/
(%)
UNet 2.750 85.84 81.70 85.31 82.83
ResUNet 2.521 87.35 82.29 86.95 83.98
UNet + DSRC 2.515 87.82 83.51 87.17 84.01
2.489 88.10 83.96 88.63 85.95
UNet + CAR 2.401 88.71 84.00 88.02 84.90
2.397 89.15 84.52 88.90 86.23
UNet + DSRC + CAR 2.211 91.25 85.56 89.12 88.05
2.179 92.01 88.91 90.09 89.01

3. 结束语

细胞核图像的有效分割是辅助医生进行诊断和治疗的重要前提,因此本文针对细胞核图像的特点,提出了基于卷积和注意力机制的DCA-ResUNet分割网络。该网络以UNet作为基本结构,通过构造DSRC模块有效提取细胞核特征,并降低网络训练参数。本文采取对CA机制改进并设计CAR模块,提高网络的特征学习能力,筛选出在图像上更多有用信息。在跳跃连接阶段采用SIF模块来聚合深浅特征信息,使网络聚焦于分割细胞核,改善分割效果。最后,使用两个公开细胞核图像数据集对DCA-ResUNet网络进行实验训练与测试。实验结果表明,本文所提方法的分割性能评价指标均有提高,在DSB2018数据集上的PRE、SEN和MIOU分别为92.01%、90.09%和89.01%,在TNBC数据集上的PRE、SEN和MIOU分别为89.21%、91.10%和89.12%。并且在主观视觉上分割效果也有较优表现。因此本文所提网络能为细胞核分割研究提供一定参考价值,在后续工作中将着重研究如何更优地读取图像特征,泛化分割能力。

重要声明

利益冲突声明:本文全体作者均声明不存在利益冲突。

作者贡献声明:支佩佩主要负责数据集整理、算法程序设计、数据记录与分析以及论文编写;邓健志主要负责提供实验指导,数据分析以及论文审阅修订。钟震霄主要负责实验流程、算法程序设计、协调沟通以及计划安排。

Funding Statement

国家自然科学基金项目(81660031)

National Nature Science Foundation of China

References

  • 1.韩继能, 谢嘉伟, 顾松, 等 基于全景病理图像细胞密度和异型特征的胶质瘤自动分级. 生物医学工程学杂志. 2021;38(6):1062–1071. doi: 10.7507/1001-5515.202103050. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 2.Cayir S, Serteli E A, Ayalti S, et al Segmentation of the main structures in hematoxylin and eosin images//2018 Signal Processing and Communications Applications Conference (SIU) Piscataway: IEEE. 2018:1–4. [Google Scholar]
  • 3.Guo G K, Liu W, Yu L L, et al Particle image segmentation based on improved fast and watershed algorithm. Powder Technology in China. 2019;25(2):61–67. [Google Scholar]
  • 4.Wang H Y, Zhao H Canny operator edge detection algorithm based on mathematical morphology preprocessing. Journal of Heze University. 2019;41(2):25–29. [Google Scholar]
  • 5.Eka P M, Annggraeny F T, Muttaqin F, et al Global and adaptive thresholding technique for white blood cell image segmentation. J Phys Conf Ser. 2020;1569(2):022054–022060. doi: 10.1088/1742-6596/1569/2/022054. [DOI] [Google Scholar]
  • 6.Gu L, Zheng Y, Bise R, et al Semi-supervised learning for biomedical image segmentation via forest oriented super pixels(voxels)//2017 International Conference on Medical Image Computing and Computer Assisted Intervention (MICCAI) Berlin, Germany: Springer. 2017:702–710. [Google Scholar]
  • 7.Nguyen N Q, Lee S W Robust boundary segmentation in medical images using a consecutive deep encoder-decoder network. IEEE Access. 2019;7(1):33795–33808. [Google Scholar]
  • 8.Zheng T Y, Tang C, Lei Z K Multi scale retinal vessel segmentation based on full convolution neural network. Acta Optica Sinica. 2019;39(2):119–126. [Google Scholar]
  • 9.Ronneberger O, Fischer P, Brox T U-Net: convolutional networks for biomedical image segmentation//2015 International Conference on Medical Image Computing and Computer Assisted Intervention (MIC-CAI) Heidelberg: Springer. 2015:234–241. [Google Scholar]
  • 10.Zhang Z X, Liu Q J, Wang Y H Road extraction by deep resdiual UNet. IEEE Geoscience and Remote Sensing Letters. 2018;15(5):749–753. doi: 10.1109/LGRS.2018.2802944. [DOI] [Google Scholar]
  • 11.汪豪, 吉邦宁, 何刚, 等. 一种提高直肠癌诊断精度的基于U型网络和残差块的电子计算机断层扫描图像分割算法. 生物医学工程学杂志, 2022, 39(1): 166-174, 184.
  • 12.Yao H B, Bian J W, Cong J W, et al Medical image segmentation model based on local sparse shape representation. Progress in Laser and Optoelectronics. 2018;55(5):169–174. [Google Scholar]
  • 13.Zhang Lifeng, Li Bin. InvUnet: inverse the Unet for nuclear segmentation in H&E stained images//2020 12th International Conference on Advanced Computational Intelligence (ICACI), Dali: IEEE, 2020: 251-256.
  • 14.Graham S, Chen H, Gamper J, et al MILD-Net: minimal information loss dilated network for gland instance segmentation in colon histology images. Medical Image Analysis. 2019;52:199–211. doi: 10.1016/j.media.2018.12.001. [DOI] [PubMed] [Google Scholar]
  • 15.He H, Zhang C, Chen J, et al A hybrid-attention nested UNet for nuclear segmentation in histopathological images. Frontiers in Molecular Biosciences. 2021;8:614174. doi: 10.3389/fmolb.2021.614174. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 16.宋杰, 肖亮, 练智超, 等 基于深度学习的数字病理图像分割综述与展望. 软件学报. 2021;32(5):1427–1460. doi: 10.13328/j.cnki.jos.006205. [DOI] [Google Scholar]
  • 17.Howard A G, Zhu M, Chen B, et al. MobileNets: efficient convolutional neural networks for mobile vision applications, arXiv preprint arXiv, 2017: 1704.04861.
  • 18.袁鑫, 郑秀娟, 吉彬, 等 基于多尺度残差卷积神经网络的视杯视盘联合分割. 生物医学工程学杂志. 2020;37(5):875–884. doi: 10.7507/1001-5515.201909006. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 19.Jie H, Li S, Gang S, et al Squeeze-and-excitation networks. IEEE Transactions on Pattern Analysis and Machine Intelligence. 2017:7132–7141. doi: 10.1109/TPAMI.2019.2913372. [DOI] [PubMed] [Google Scholar]
  • 20.Woo S, Park J, Lee J Y, et al CBAM: convolutional block attention module//2018 European Conference on Computer Vision (ECCV) Munich: Springer. 2018;10(8):168–203. [Google Scholar]
  • 21.Hou Qibin, Zhou Daquan, Feng Jiashi. Coordinate attention for efficient mobile network design//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Piscataway, NJ: IEEE, 2021: 13708-13717.
  • 22.尤轩昂, 赵鹏, 慕晓冬, 等 融合注意力机制与密集多尺度特征的异质噪声虹膜分割方法. 激光与光电子学进展. 2022;59(4):101–112. [Google Scholar]
  • 23.Btehaz N, Rahman M S MultiResUNet: rethinking the UNet architecture for multimodal biomedical image segmentation. Neural Networks. 2020;121(1):74–87. doi: 10.1016/j.neunet.2019.08.025. [DOI] [PubMed] [Google Scholar]
  • 24.Caicedo J C, Goodman A, Karhohs K W, et al Nucleus segmentation across imaging experiments: the 2018 Data Science Bowl. Nat Methods. 2019;16(12):1247–1253. doi: 10.1038/s41592-019-0612-7. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 25.Naylor P, Lae M, Reyal F, et al Segmentation of nuclei in histopathology images by deep regression of the distance map. IEEE Trans Med Imaging. 2019;38(2):448–459. doi: 10.1109/TMI.2018.2865709. [DOI] [PubMed] [Google Scholar]
  • 26.He Y S, Jiang J L, Yu H, et al Comarison of dice similarity coefficient and Hausdorff distance in image segmentation. Chinese Journal of Medical Physics. 2013;36(11):1307–1311. [Google Scholar]
  • 27.Hao X Y, Xiong J F, Xu D, et al Lung tumor segmentation based on 3D U-net with dual attention mechanism. Chinese Journal of Image Graphics. 2020;25(10):2119–2127. [Google Scholar]
  • 28.Peng Hongxing, Xue C, Shao Yuanyuan, et al Semantic segmentation of litchi branches using DeepLabv3+ model. IEEE Access. 2020;8:164546–164555. doi: 10.1109/ACCESS.2020.3021739. [DOI] [Google Scholar]

Articles from Sheng Wu Yi Xue Gong Cheng Xue Za Zhi = Journal of Biomedical Engineering are provided here courtesy of West China Hospital of Sichuan University

RESOURCES