Skip to main content
Sheng Wu Yi Xue Gong Cheng Xue Za Zhi = Journal of Biomedical Engineering logoLink to Sheng Wu Yi Xue Gong Cheng Xue Za Zhi = Journal of Biomedical Engineering
. 2024 Jun 25;41(3):503–510. [Article in Chinese] doi: 10.7507/1001-5515.202310044

基于主动学习的肺结节计算机辅助诊断交互审查技术

A design of interactive review for computer aided diagnosis of pulmonary nodules based on active learning

Shuangping TAN 1, Jun LI 1, Xiaojuan ZHANG 2, Xinyue YAN 2, Tong ZHANG 2, Xiali WU 3, Ziqiang LIU 3, Lili LI 3, Juan FENG 3, Haibin HAN 3, Guoying TANG 3, Junzhou HAN 3, Youfeng DENG 3,*
PMCID: PMC11208657  PMID: 38932536

Abstract

Automatic detection of pulmonary nodule based on computer tomography (CT) images can significantly improve the diagnosis and treatment of lung cancer. However, there is a lack of effective interactive tools to record the marked results of radiologists in real time and feed them back to the algorithm model for iterative optimization. This paper designed and developed an online interactive review system supporting the assisted diagnosis of lung nodules in CT images. Lung nodules were detected by the preset model and presented to doctors, who marked or corrected the lung nodules detected by the system with their professional knowledge, and then iteratively optimized the AI model with active learning strategy according to the marked results of radiologists to continuously improve the accuracy of the model. The subset 5−9 dataset of the lung nodule analysis 2016(LUNA16) was used for iteration experiments. The precision, F1-score and MioU indexes were steadily improved with the increase of the number of iterations, and the precision increased from 0.213 9 to 0.565 6. The results in this paper show that the system not only uses deep segmentation model to assist radiologists, but also optimizes the model by using radiologists' feedback information to the maximum extent, iteratively improving the accuracy of the model and better assisting radiologists.

Keywords: Pulmonary nodule detection, Active learning, Interactive review

0. 引言

肺癌是一种临床常见的恶性肿瘤,在全球范围内都具有较高发病率和死亡率[1]。若能在早期进行检测并治疗,患者的五年存活率将得到大幅提高[2]。早期肺癌在计算机断层扫描(computed tomography,CT)图像中表现为肺结节,呈圆形不透明或不规则阴影。随着医学成像技术的迅猛发展,CT图像分辨率不断提高,能够捕捉到更小尺寸的肺部病灶,这为肺结节的精准诊断提供了可能。

在庞大的CT图像中判读各类复杂肺结节,且保持较高的准确率和效率,对临床医生来说是一个较大挑战。计算机辅助诊断(computer aided diagnosis,CAD)通过人工智能(artificial intelligence,AI)算法实现诊断过程的自动化,可有效提高诊断结果的准确率和放射科医生的工作效率[3]。近年来,随着深度学习的应用,针对CT影像的CAD进展迅速,涵盖了数据预处理、肺实质分割、肺结节检测、假阳性降低、肺结节分割、分类和检索等各方面[4-9]。同时,许多医疗设备制造商和软件公司也开始开发商业化肺结节CAD系统,具备智能化的肺结节检测和诊断功能[10]。CAD系统的性能高度依赖于训练数据集,但是获取高质量的标注数据集需要有经验的放射科医生投入大量的时间和精力,而且现有的依托已标注数据集的模型泛化能力普遍较弱。虽然,已有文献提出了融合深度主动学习的半自动化标注方法,可通过主动选取策略将最具价值的样本提供给用户人工标注,但这种方法没有考虑到用户标注的主动性[11-12]。研究发现,现阶段CT图像肺结节分割存在两个问题:① 肺结节目标小,且具有准确像素级结节标签的数据集获取困难,常见的通用深度分割模型表现欠佳;② 不能有效地集成医生的反馈,无法充分利用医生的专业知识。

针对上述问题,本文设计并研发了一个支持CT图像肺结节辅助诊断的在线交互审查方法和系统,提出“交互标记-标签传播-样本集扩展-分割模型更新”的技术路线。其创新点包括:① 对肺结节像素级标签难以获取问题,设计了基于三维方向的梯度直方图(three dimensional histogram of oriented gradients,3D-HOG)提取特征相似的标签传播策略,顾及不确定性和多样性,扩展用于主动学习样本选择的候选样本集;② 提出了基于交互图形界面的医生审查系统的设计与实现方法。

本文设计系统首先将检测出的肺结节展示给医生,医生利用专业知识对系统检测出的肺结节进行标注或纠正,然后根据标注结果采用标签传播的主动学习策略对内置模型进行迭代优化,以持续提高模型的准确性。本系统将肺结节检测、医生审查标注、模型优化等功能集于一体,在使用AI模型辅助医生诊断的同时,又最大程度利用医生的反馈信息来优化模型。本文设计的损失函数和主动学习优化方法,可作为任何一个肺结节分割模型及系统设计的有效参考,以迭代提高模型的准确性,更好地辅助医生工作。

1. 基于主动学习的肺结节辅助诊断交互审查系统设计

1.1. 系统整体设计

本文介绍的肺结节CAD交互审查系统,是基于主动学习驱动的诊断方法。主动学习是通过假设样本池中每个样本对模型性能的提高贡献不同,每次迭代训练时选取信息量最大、价值最高的样本,以尽可能少的样本数量来提高模型性能[13]。系统首先通过内置模型检测出肺结节,提供图形化界面让多位医生对模型的初步检测结果进行标注或纠正,然后从训练数据集和待诊断数据集中同时筛选信息量较高的样本对模型进行更新训练,直至分割模型达到精度要求或不再提升。本文主动学习中使用的选择策略是人工引导的样本选取策略,其综合多位医生的投票得分和模型表现来设定各样本的信息量,以提高分割模型在特定类型结节的检测敏感度,改善肺结节多样性和类别不平衡带来的假阳性问题。该方法在原有样本数据基础上,每次逐渐增加主动学习样本(约占原样本数据1/4到1/5),以便在训练过程中保留对旧数据的记忆,同时为了避免新数据对模型产生过大影响,算法会适当降低学习率使模型对旧知识的保留更稳定。

本文介绍的交互性包括两方面:① 用户可对模型检测出的肺结节结果进行审查标注,并返回样本,返回的样本通过主动学习持续改进后台模型。② 多用户可同步或异步进行审查标注,算法会利用多用户交互标注信息进行用户不确定度计算,帮助筛选更有价值的样本进行模型优化。

1.2. 功能和流程设计

图1所示,本系统主要包括肺结节分割模型、主动学习中间件和医生审查纠错3个模块,分别完成基于主动学习模型的肺结节分割、分割模型重训练、基于网页浏览器(web browser,web)的原始图像和检测结果可视化展示及用户交互。各模块按顺序进行的主要功能如下:

图 1.

图 1

System function modules and processes

系统功能模块和流程

(1)肺结节分割:对用户传入的原始CT图像进行肺结节检测,并将分割结果同时传输给前端可视化界面和中间件样本选择算法。

(2)分割结果处理与展示:后端通过连通域计算,获得已分割的肺结节实例列表,并与原始CT图像一起呈现给用户。

(3)医生审查:结合原始CT图像,多位医生通过交互界面对分割出的肺结节进行审查,对漏检或错检的肺结节切片以画圈的方式进行粗糙标记和纠正。

(4)基于主动学习的样本筛选:当新增或修改的肺结节标记达到一定数量时,后端将医生的审查标注结果和原始分割结果一同传输给在线样本选择模型,应用于三维U型网络(3D-Unet)模型的更新训练。

(5)模型重训练与更新:在构建的训练集基础上,以增量方式优化当前模型。

(6)循环执行步骤(1)~步骤(5),直至分割模型达到精度要求或不再提升,在此过程中用户可持续输入未诊断的CT图像。通过不断迭代,使后台分割模型不断收到医生的反馈,从而有效地融合医生专业知识,提高模型的泛化能力和分割性能。

1.2.1. 肺结节分割模型

3D-UNet模型是一种经典的卷积神经网络结构,能够同时捕获图像中的局部细节和全局上下文信息,因此常用于医学影像分割领域[14-18]。为更好地支持分割模型重训练,本文综合了医学图像分割常用的戴斯(Dice)损失和交叉熵损失来设计损失函数。考虑到医生提供的标注数量有限,在模型重训练过程中,对医生未标记的区域进行相对粗糙的样本扩展。然后根据3D-HOG提取纹理特征向量,计算未标记样本和具有精细标签的本地训练集的相似性来获取未标记样本的伪标签,并将相似距离加入到加权Dice 损失函数的设计中[19],如式(1)所示:

1.2.1. 1

其中,DpDn分别表示肺结节像素和背景像素的戴斯系数(以符号dice表示),超参数α由最小传播距离计算,具体细节如式(2)~式(4)所示:

1.2.1. 2
1.2.1. 3
1.2.1. 4

XpXnYpYn分别表示实际标注为结节、预测结果为结节、实际标注为背景、预测结果为背景的概率矩阵。rnegrpos分别表示根据最小相似距离计算的背景和结节像素数所占的比值,其计算公式如式(5)~式(8)所示:

1.2.1. 5
1.2.1. 6
1.2.1. 7
1.2.1. 8

其中,mindistance为最小相似距离,nnegnpos分别表示标签传播后具有粗糙标签的切块中结节和背景的像素数,pnegppos分别表示标签传播后根据最小相似距离加权得到的背景和结节像素数。

此外,基于交叉熵损失函数的梯度稳定性,添加了结节和背景像素的对数惩罚项penppenn,如式(9)~式(10)所示:

1.2.1. 9
1.2.1. 10

其中,yi表示预测结果像素为肺结节的概率,ε为一个极小值,防止对数的真数为0造成错误。通过多次实验验证,设置超参数ω = 2,λ = 0.2最终损失函数(以符号loss表示)如式(11)所示:

1.2.1. 11

1.2.2. 主动学习中间件

在模型构建过程中,本文使用肺结节正样本作为初始训练集,并在此基础上训练3D-Unet模型作为初始化模型,使其具有一定的基础分割能力。但该初始训练集只含有正样本且数量较少,使得模型负样本表现较差,泛化能力低,会带来较多的假阳性结果。故在处理复杂任务或大规模数据集时需要调整模型以适应新的数据分布。因此,本文设计了主动学习中间件,一方面,对接收到的分割结果进行后处理,即对分割结果和原始CT图像进行合成,并展示肺结节列表,以支持前端可视化;另一方面,分析已有的肺结节分割结果和用户审查标注信息,自动选择具有代表性和关键特征的样本,用于模型训练和优化。

在初始分割模型的基础上,获取医生粗糙标签并使用主动学习来实现分割模型的训练优化与更新。主动学习的核心是选取重训练的样本,而样本的信息量是选取的关键。现有度量数据信息量的方式较多,常用的有不确定度采样、信息增益采样、基于委员会查询、不确定性和多样性权衡等[14]。本文基于已有的度量标准,设计了一种综合考虑医生用户和后台算法的主动学习策略。

在医生用户方,要考虑多用户反馈信息,可采用多人投票的方式计算正负样本的不确定度,以对应样本的投票者数量(以符号count表示)与参与总人数n的比值表示投票得分,投票得分越高,不确定度越高,如式(12)所示:

1.2.2. 12

其中,Sp即为根据用户不确定度度量得到的高价值样本。在后台算法角度,可以综合考虑正样本的不确定性和负样本的多样性,该算法的不确定度Sm,采用最小值置信度选出分割模型不善识别的正样本,如式(13)所示:

1.2.2. 13

其中,x表示输入,yi表示类别,i代表类别数,P(yi|x)表示将x输入分类为yi的概率。负样本采用多样性策略,基于3D-HOG特征向量,使用K均值聚类算法将用户标注数据集划分为K簇,通过计算每个样本到类中心点的距离进行多样性采样,得到代表性样本。同样地,对本地训练集的样本筛选也采用了K均值聚类的选择策略以保证结节类型的多样性和代表性。最后,设定医生与分割模型度量信息量的权重α,该值随分割模型的性能变化。通常情况下,根据医生反馈信息所度量的信息量更具有参考性,即α>0.5,综合用户不确定度Sp和算法不确定度Sm得到有价值样本Stotal,如式(14)所示:

1.2.2. 14

1.2.3. 基于交互界面的医生审查

医生审查纠错模块主要包括两方面功能:用户阅片和交互纠错。阅片功能包括原始肺部图像和肺结节分割结果展示。如图2所示,左侧,为肺部CT图像切片列表,点击任一切片,即可在中间画布区域加载对应CT图像文件的分割结果,系统检测出的肺结节将会以绿色覆盖显示。右侧列表框,展示3D-Unet模型执行分割任务检出的所有肺结节实例,每个实例项包含:结节的坐标位置和半径信息。阅片功能,可为医生提供多种阅片方式,包括上下切片切换、切片索引值选取和肺结节快速定位。此外,系统还提供了肺结节快速定位功能,当用户点击右侧已检出肺结节时,系统会迅速切换至模型检测到的对应肺结节中心位置,方便用户重点关注模型检出部分,从而提高阅片效率。

图 2.

图 2

Visual page screenshot (color)

可视化页面截图

交互纠错是本系统的核心功能。医生在阅片时,可结合自己的经验,通过删除、修改和新增按钮分别执行删除、修改和增加肺结节操作。对删除和修改操作,用户点击右侧列表项的某一具体肺结节即可修改。对漏检的肺结节,可直接在切片图像中圈出漏检的结节中心坐标和半径。同时,不同的操作会以不同的颜色在肺结节列表中显示,无色、红色、绿色和黄色分别代表了用户的无操作、删除、新增和修改。当纠错的肺结节达到一定数量时,后台将操作记录存入数据库中,用于主动学习筛选样本。

2. 交互审查系统的开发与实现

为便于多用户分布式使用,本系统采用浏览器/服务器(B/S)架构进行开发,具体包括前端、后端(分割模型、数据层)和主动学习中间件等四部分,系统整体架构如图3所示。

图 3.

图 3

System structure

系统架构

2.1. 前端实现

交互审查诊断系统基于浏览器运行,前端选择即时编译语言JavaScript(Netscape Communications Co. Ltd.,美国)进行开发。系统界面设计选用Vue.js 3.0开发,它提供了一套声明式的、组件化的编程模型,可高效地开发用户界面。为支持CT图像和用户标注,本文借助绘图工具Canvas(Netscape Communications Co. Ltd.,美国)实现用户标注功能。它提供一个类似于画布的区域,可通过JavaScript代码在其中进行绘制,从而创建各种图形、动画和交互效果。另外,为实现用户在本地浏览器中持久地存储和快速访问数据,前端将用户信息记录在本地存储中,以降低频繁查询数据库带来的运行压力。

2.2. 后端设计与实现

2.2.1. 后端架构

服务端使用面向对象语言Java(Oracle Co. Ltd.,美国)开发。在数据库管理方面,通过定义实体类和数据持久性的开源框架Mybatis(Apache Co.,美国)进行数据库交互,实现数据的增删改查操作,尤其是用户标注记录的持久化存储。为确保后端系统的安全性和权限安全管理,在用户通过身份验证后,利用会话管理跟踪用户在网站上的活动状态,记录登录状态并设置超时时间。若用户未在系统中进行任何操作且登录超时,则系统自动退出。

2.2.2. 数据库

本系统数据库采用开源关系型数据库MySQL(MySQL AB Co.,瑞典),借助腾讯云对象存储(cloud object storage,COS)存储肺实例数据,以降低下载资源时延,提高页面渲染速度。本系统数据库设计涉及三类实体,分别是医生操作、肺结节操作记录和肺部CT图像实例。

2.2.3. 肺结节分割模型

本系统3D-Unet模型采用基于面向对象语言Python 3.6(Python Software Foundation,荷兰)的机器学习库PyTorch(Python Software Foundation,荷兰)作为深度学习框架,它提供了丰富的工具和库,支持各种神经网络模型的构建和训练。当用户的标注数量达到阈值时,服务会自动调用Python脚本,将导出的标注数据传输给模型以进行优化,并替换优化后的模型权重文件,以用于后续的肺结节检测。

2.3. 主动学习中间件的设计与实现

主动学习中间件,通过Python语言实现样本筛选和肺结节分割结果的处理。对1.2.2小节中所述的主动学习查询策略,系统通过计算3D-HOG特征向量、对未标记区域进行标签传播,使用人机结合和K均值聚类的多样性查询策略,分别在本地训练集与用户标记图像中筛选样本,构建新的训练集用于模型优化。

肺结节分割结果,包括肺部CT图像合成和肺结节列表获取等步骤。CT图像合成需要融合原始CT图像和二进制掩膜图像。使用开源计算机视觉和机器学习软件库OpenCV(Intel Co.,美国),将掩膜图像的前景(肺结节区域)叠加在原始CT图像上,并将融合后的图像转换为红绿蓝(red,green,blue,RGB)色彩格式,以绿色突出显示检测到的肺结节,方便用户阅片。在肺结节列表获取的过程中,本文通过三维组件库对二进制掩膜图像进行连通域分析,提取每个结节的中心点和坐标,并过滤半径小于1 mm的肺结节,从而获得肺结节列表。

3. 实验

3.1. 基于LUNA16的交互诊断实验

本文使用的影像数据来自于开源肺结节数据集——肺结节分析2016(the lung nodule analysis 2016,LUNA16)。该数据集共分为10个数据子集,子集编号为0~9,包含切片厚度一致且大于3 mm,并完整无缺失的888张CT图像[5]。为量化评价本文所述模型的性能,本文选取医学图像领域常用的评价指标,包括:召回率(recall),反应漏检情况;准确度(precision),衡量真正例与模型预测为正例的样本比例;调和分数(F1-score),是准确度和召回率的调和平均值;交并比(mean intersection over union,MIoU),衡量预测结果的准确度和完整性。

实验使用子集0~4作为训练集,训练建立初始模型3D-Unet(0~4),随后在子集5~9进行五次检测测试。如表1所示,可见3D-Unet(0~4)初始模型在数据集5~9的表现各不相同,但基本都表现为召回率高而准确率低,即假阳性高。

表 1. 3D-Unet detection results in subsets 5~9.

3D-Unet detection results in subsets 5~9

3D-Unet在数据集5~9的检测结果

初始模型 测试数据集 准确率 召回率 调和分数 交并比
3D-Unet(0~4) 5 0.074 0 0.856 1 0.136 2 0.095 6
6 0.260 3 0.850 6 0.398 6 0.248 7
7 0.284 7 0.879 2 0.430 1 0.274 0
8 0.367 0 0.845 1 0.501 6 0.340 5
9 0.294 0 0.834 4 0.434 8 0.277 5

随后在数据集5~9,模拟医生进行简单标记。根据主动学习多样性策略,本文在初始训练集中选取80个正样本切块和40个负样本切块,在每次迭代交互的数据集中选取40个具有粗糙标签的正样本切块和80个负样本切块进行模型更新。初始3D-Unet与更新后的模型在数据集5~9上的表现如表2所示。经过交互标记和模型更新后,与初始分割模型相比,召回率降低,其余指标都有一定程度的提升。如表2所示,纵向对比准确率,第一次迭代后在数据集5的准确率为0.213 9,经过5次迭代后提升到0.565 6。另外,将表1表2中的同一数据集进行对比,对比3D-Unet(0~4)训练建立的初始模型与模型更新后在同一数据集上的表现,初始模型在数据集5的准确率为0.074 0,第一次迭代后提高到0.213 9。测试结果说明,本文提出的主动学习多样性策略能够根据模型在对应数据的表现情况,提取出不易识别、具有代表性、类别平衡的训练样本;同时也证实了重训练损失函数对假阳性降低的有效性。

表 2. Iterative detection results.

Iterative detection results

迭代检测结果

迭代次数 测试数据集 准确率 召回率 调和分数 交并比
第一次迭代 5 0.213 9 0.789 7 0.336 6 0.201 5
第二次迭代 6 0.328 4 0.819 6 0.468 9 0.305 6
第三次迭代 7 0.386 8 0.817 7 0.525 2 0.357 0
第四次迭代 8 0.459 9 0.815 9 0.588 3 0.416 6
第五次迭代 9 0.565 6 0.778 4 0.655 1 0.487 5

本文的实验目的并非与已有的分割模型对比,而是可以依托任何一个分割模型,通过迭代改善该模型。实验表明,与初始3D-Unet分割模型对比,本文提出的方法可以通过多次迭代提升分割精度。

3.2. 运行测试

为测试系统运行效率,本文还对系统的运行速度进行了测试。测试环境使用64位Windows 10操作系统(Microsoft Co.,美国),处理器为至强金牌系列6133(Intel Co.,美国),内存为2 G,存储为250 G,显卡为RTX 2080 ti(NVIDIA Co.,美国)。运行测试的对象包括:主动学习样本查询、模型重训练以及单张肺部CT图像的预测速度。由于每轮迭代使用的测试数据集和用户标注数量不同,为表征更普遍的运行情况,本文通过多次实验后得到前述3个测试对象的预测平均时间分别为156 9 s、2.5 h、7 s。时长较长的主要原因是图像数量较多、尺寸较大、非高性能运算服务器。随着样本的逐步增加,训练所需时间也更长。但由于增加的规模有限,因此每次迭代学习由于新引入样本导致训练时间的增加幅度并不明显。因此,如何在引入新样本时,在尽可能保留必要知识的情况下去除旧样本,从而提升迭代训练效率,以及算法涉及特征向量的计算、标签传播、两阶段的肺结节预测等,是未来需改进的方向。

4. 结束语

本文提出的支持医生反馈信息的肺结节交互审查方法,在参考系统检出肺结节结果的同时,又可及时采集医生审查信息进行模型更新,可有效改善正负样本不平衡问题,降低假阳性率,提高肺结节检测准确性。值得一提的是,本文的研究重点不在于检测和分割方法,而在于使用医生标记和标签传播获取粗糙标签样本集,利用主动学习实现对肺结节分割模型的迭代优化。任何一个肺结节分割模型,都可参考本文设计的损失函数和主动学习优化方法。但作为一个在线实时系统,主动学习样本查询和模型重训练时间较长,难以快速响应用户的下一步检测需求,故优化系统运行效率是本文未来的重点研究方向之一,如图像特征向量的计算优化、标签传播方法或改进网络层级结构等。

重要声明

利益冲突声明:本文全体作者均声明不存在利益冲突。

作者贡献声明:谭双平主要负责项目主持、框架搭建、计划安排及论文撰写;张彤、邓有锋、李俊等主要负责项目实验计划、算法设计、程序设计指导及论文修改;张晓娟、严馨月主要负责实验、算法设计及程序开发及论文撰写;吴下里等其他人主要负责实验指导、程序测试、数据分析及指导等工作。

Funding Statement

武汉市卫生健康科研基金重点项目(WX20A11)

Wuhan Municipal Health Commission

References

  • 1.Ferlay J, Soerjomataram I, Dikshit R, et al Cancer incidence and mortality worldwide: sources, methods and major patterns in GLOBOCAN 2012. International Journal of Cancer. 2015;136(5):E359–E386. doi: 10.1002/ijc.29210. [DOI] [PubMed] [Google Scholar]
  • 2.Miller K D, Nogueira L, Mariotto A B, et al Cancer treatment and survivorship statistics, 2019. CA: A Cancer Journal for Clinicians. 2019;69(5):363–385. doi: 10.3322/caac.21565. [DOI] [PubMed] [Google Scholar]
  • 3.王泽华 肺结节AI辅助检测产品的临床应用效果及影响因素分析概述. 中国医疗设备. 2021;36(12):10–14. doi: 10.3969/j.issn.1674-1633.2021.12.002. [DOI] [Google Scholar]
  • 4.Gu Y, Chi J, Liu J, et al A survey of computer-aided diagnosis of lung nodules from CT scans using deep learning. Computers in Biology and Medicine. 2021;137:104806. doi: 10.1016/j.compbiomed.2021.104806. [DOI] [PubMed] [Google Scholar]
  • 5.Kim H J, Lee D Image denoising with conditional generative adversarial networks (CGAN) in low dose chest images. Nuclear Instruments and Methods in Physics Research Section A. 2020;954:161914. doi: 10.1016/j.nima.2019.02.041. [DOI] [Google Scholar]
  • 6.Nemoto T, Futakami N, Yagi M, et al Efficacy evaluation of 2D, 3D U-Net semantic segmentation and atlas-based segmentation of normal lungs excluding the trachea and main bronchi. Journal of Radiation Research. 2020;61(2):257–264. doi: 10.1093/jrr/rrz086. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 7.Wang D, Zhang Y, Zhang K, et al. FocalMix: semi-supervised learning for 3D medical image detection//CVF Conference on Computer Vision and Pattern Recognition, Seattle: IEEE, 2020, 3951-3960.
  • 8.El-Regaily S A, Salem M A M, Aziz M H A, et al Multi-view convolutional neural network for lung nodule false positive reduction. Expert Systems with Applications. 2020;162:113017. doi: 10.1016/j.eswa.2019.113017. [DOI] [Google Scholar]
  • 9.Sun Y, Tang J, Lei W, et al 3D segmentation of pulmonary nodules based on multi-view and semi-supervised. IEEE Access. 2020;8:26457–26467. doi: 10.1109/ACCESS.2020.2971542. [DOI] [Google Scholar]
  • 10.Setio A A A, Traverso A, de Bel T, et al Validation, comparison, and combination of algorithms for automatic detection of pulmonary nodules in computed tomography images: the LUNA16 challenge. Medical Image Analysis. 2017;42:1–13. doi: 10.1016/j.media.2017.06.015. [DOI] [PubMed] [Google Scholar]
  • 11.王海林, 冯瑞, 张晓波 融合深度主动学习的医学图像半自动标注系统. 计算机系统应用. 2023;32(2):75–82. [Google Scholar]
  • 12.Brown M, Browning P, Wahi-Anwar M W, et al Integration of chest CT CAD into the clinical workflow and impact on radiologist efficiency. Academic radiology. 2019;26(5):626–631. doi: 10.1016/j.acra.2018.07.006. [DOI] [PubMed] [Google Scholar]
  • 13.Settles B. Active learning literature survey. Wisconsin: University of Wisconsin-madison, 2010.
  • 14.Tran M, Vo-Ho V K, Le N T H. 3DConvCaps: 3DUnet with convolutional capsule encoder for medical image segmentation//2022 26th International Conference on Pattern Recognition (ICPR), Montreal: IEEE, 2022: 4392-4398.
  • 15.Çiçek Ö, Abdulkadir A, Lienkamp S S, et al. 3D U-Net: learning dense volumetric segmentation from sparse annotation//Medical Image Computing and Computer-Assisted Intervention (MICCAI 2016): 19th International Conference, Athens: MICCAI, 2016: 424-432.
  • 16.Akbar A S, Fatichah C, Suciati N Single level UNet3D with multipath residual attention block for brain tumor segmentation. Journal of King Saud University: Computer and Information Sciences. 2022;34(6):3247–3258. doi: 10.1016/j.jksuci.2022.03.022. [DOI] [Google Scholar]
  • 17.Agnes S A, Anitha J Efficient multiscale fully convolutional UNet model for segmentation of 3D lung nodule from CT image. Journal of Medical Imaging. 2022;9(5):052402. doi: 10.1117/1.JMI.9.5.052402. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 18.Xiao Z, Liu B, Geng L, et al Segmentation of lung nodules using improved 3D-UNet neural network. Symmetry. 2020;12(11):1787. doi: 10.3390/sym12111787. [DOI] [Google Scholar]
  • 19.Buch N, Orwell J, Velastin S A. 3D extended histogram of oriented gradients (3DHOG) for classification of road users in urban scenes//British Machine Vision Conference, London: BMVA, 2009.

Articles from Sheng Wu Yi Xue Gong Cheng Xue Za Zhi = Journal of Biomedical Engineering are provided here courtesy of West China Hospital of Sichuan University

RESOURCES