Skip to main content
West China Journal of Stomatology logoLink to West China Journal of Stomatology
. 2022 Dec;40(6):676–684. [Article in Chinese] doi: 10.7518/hxkq.2022.06.008

基于混合现实的手术导航系统在颅颌面创伤骨整复中的应用研究

Application of mixed reality-based surgical navigation system in craniomaxillofacial trauma bone reconstruction

Chengzhong Lin 1, Yong Zhang 2, Shao Dong 3, Jinyang Wu 2, Chuxi Zhang 2, Xinjun Wan 3, Shilei Zhang 2,
Editor: 杜 冰
PMCID: PMC9763953  PMID: 36416320

Abstract

Objective

This study aimed to build a surgical navigation system based on mixed reality (MR) and optical positioning technique and evaluate its clinical applicability in craniomaxillofacial trauma bone reconstruction.

Methods

We first integrated the software and hardware platforms of the MR-based surgical navigation system and explored the system workflow. The systematic error, target registration error, and osteotomy application error of the system were then analyzed via 3D printed skull model experiment. The feasibility of the MR-based surgical navigation system in craniomaxillofacial trauma bone reconstruction was verified via zygomatico-maxillary complex (ZMC) reduction experiment of the skull model and preliminary clinical study.

Results

The system error of this MR-based surgical navigation system was 1.23 mm±0.52 mm, the target registration error was 2.83 mm±1.18 mm, and the osteotomy application error was 3.13 mm±1.66 mm. Virtual surgical planning and the reduction of the ZMC model were successfully conducted. In addition, with the guidance of the MR-based navigation system, the frontal bone defect was successfully reconstructed, and the clinical outcome was satisfactory.

Conclusion

The MR-based surgical navigation system has its advantages in virtual reality fusion effect and dynamic navigation stability. It provides a new method for doctor-patient communications, education, preoperative planning, and intraoperative navigation in craniomaxillofacial surgery.

Keywords: craniomaxillofacial surgery, mixed reality, surgical navigation, virtual surgery, reconstruction


颅颌面外科所涉及的区域空间狭窄、解剖结构复杂,颅颌面创伤或畸形的手术风险高、整复难度大,通常难以精准恢复预期的功能及外形[1][3]。随着现代化数字外科技术的迅速发展,外科导航技术已在颅颌面创伤骨整复中得到广泛应用,能有效提高手术精准性,减少手术风险[4][5]。但目前外科导航系统在成像显示方面尚存在有不足之处,如不能直观地呈现病灶解剖结构、临床医生需要在屏幕和术区之间频繁视野切换等[6]。这限制了现有手术导航系统在颅颌面创伤外科的进一步发展和应用。

混合现实(mixed reality,MR)技术是全新一代数字全息影像技术,具有虚拟世界与现实世界深度结合、环境与使用者实时交互、虚拟模型与真实目标精确匹配等特性[7][8]。近年来,MR技术在神经外科、骨科、心胸外科等都逐步得到应用,MR技术可以将术前重建三维影像叠加在术区,直观地呈现给术者[9][11]。但MR在术中导航的应用仍较有限,其存在无法实时动态追踪移动目标、三维模型与物理环境的交互效果不佳、配准误差较大等不足之处。本研究提出搭建基于MR显示及红外光学定位的头盔式手术导航系统,通过配准精度与应用误差分析,评估该系统的可行性,进一步通过头颅模型试验和临床应用探讨该MR导航系统在颅颌面创伤骨整复中的适用性。

1. 材料和方法

1.1. 基于MR的手术导航系统

整体系统设计目标是实现一套基于MR显示及红外光学定位的口腔颅颌面外科手术导航系统。本系统主要由三部分组成,分别为MR显示端的Microsoft HoloLens 2(微软公司,美国)、红外光学定位追踪端的Polaris Vicra(Northern Digital Inc公司,加拿大)、PC数据通讯端的戴尔笔记本电脑(戴尔公司,美国)。该系统主要包含以下5个模块,系统工作流程见图1

图 1. MR手术导航系统的工作流程.

图 1

Fig 1 System flowchart of the MR-based surgical navigation system

1)术前规划:对CT影像数据进行图像分割、三维重建和手术规划,并将三维数据导入unity3D开发环境,生成Windows的通用应用平台(universal windows platform,UWP)应用程序导入到HoloLens端。

2)光学图像配准:采用基于特征点的配准方法,实现手术靶区与术前CT影像在红外光学定位追踪系统下的空间配准。

3)HoloLens端空间标定:HoloLens端虚拟空间中设有4个虚拟标记点,在完成光学图像配准后,术者佩戴HoloLens眼镜,按顺序将光学定位探针的尖点与虚拟标记点匹配,实现HoloLens端虚拟空间在光学空间下的标定。

4)数据传输:空间配准过程及导航过程需要在PC端、HoloLens端、光学定位追踪端不间断地数据传输。光学追踪仪与PC端之间由USB主机转接器进行数据传输,同时利用无线路由器建立一个无线局域网以实现PC端与HoloLens之间的数据传输。

5)实时动态追踪:空间配准完成后,可实现术前规划的虚拟场景与真实目标区域的虚实融合。光学定位跟踪仪通过跟踪固定在骨骼上的被动定位支架实时获取被动定位支架的位置坐标并计算被动定位支架的旋转与平移,由于被动定位支架和骨骼是刚性连接的,进而可得到术区位置的变换,从而实时更新位置数据,达到实时动态导航的目的。

1.2. 系统的误差测量实验

1.2.1. 3D打印头颅模型

将6个头颅CT数据的DICOM文件导入Simplant软件11.04版本(Materialise公司,比利时),完成颅颌面硬组织模型的三维重建。参考常用于颅颌面部骨骼头影测量分析的标志点,在模型上设计用于配准和精度检测的17个解剖标志点。同时在虚拟的三维头颅模型的左右两侧上颌骨分别设计1条Le FortⅠ型截骨线,并在每条截骨线上各设计了5条等分的刻度线。设计完成的三维头颅模型以STL格式导入3D打印机交工成头颅模型,模型设计如图2A~E所示。

图 2. 用于精度验证的3D打印头颅模型.

图 2

Fig 2 3D printed skull model designed for accuracy validation

A~C:具有17个有解剖标志点的虚拟模型的右侧面观、正面观、左侧面观;D:具有Le FortⅠ型截骨参考线的虚拟头颅模型;E:3D打印头颅模型实物;F:完成配准后,虚拟模型与真实目标叠加;G:截骨实验结果,蓝线为参考线,红线为实际截骨线。

1.2.2. 误差测量实验

1)系统误差:实验者使用导航探针尖端分别采集真实头模上的解剖标志点在光学定位追踪系统坐标系下的位置作为真实位置,而HoloLens坐标系下的对应虚拟解剖标志点将被转换至光学定位追踪坐标系下,通过系统计算获得理论上的虚拟位置,真实位置和理论位置的偏差也就是光学追踪坐标系下的系统误差。

2)目标配准误差:实验者使用导航探针尖端分别采集虚拟模型上的解剖标志点在光学追踪仪下的真实位置,通过计算其与真实模型上对应解剖标志点的位置偏移,可获得目标配准误差,即真实的虚实偏移。

3)应用误差:选用颅颌面外科常规的Le FortⅠ截骨作为应用误差分析的实验手术方式,在混合现实导航系统引导下行头颅模型双侧Le Fort Ⅰ型截骨。完成截骨后,对各侧截骨线的5个测量点使用游标卡尺测量实际截骨线与预先设定截骨线在该5个测量点的直线距离,即应用误差。

1.3. 颧上颌骨复合体(zygomatico-maxillary complex,ZMC)复位的模型实验

1.3.1. ZMC模型3D打印

本实验以ZMC复位这一颅颌面创伤中最常见的手术操作作为实验手术方式。临床获取4个ZMC骨折的头颅螺旋CT数据,完成三维建模、术前规划,将ZMC模型及切割ZMC的头颅模型3D打印,模型设计如图3A~H所示。

图 3. ZMC复位实验的术前规划影像、3D打印模型、术中复位情况.

图 3

Fig 3 Preoperative planning, 3D printed model, and MR navigated intraoperative reduction of ZMC

A:ZMC骨折患者的三维模型;B:去除ZMC骨块的三维模型;C:完成虚拟骨折复位规划的三维模型;D:ZMC虚拟复位前后拟合;E:完成虚拟规划的头颅模型侧面观;F:具有5个标志点的ZMC三维模型;G、H:3D打印头颅模型、ZMC模型实物;I、J:3D打印模型上ZMC虚拟复位;K、L:ZMC复位后的虚实融合效果。

1.3.2. ZMC复位实验

1)ZMC虚拟复位:完成导航系统的配准后,将ZMC虚拟模型和分割ZMC的头颅虚拟模型分别以绿色和暗红色显示,透明度50%,通过显示或隐藏ZMC虚拟模型,在真实头模上进行ZMC的虚拟复位。

2)虚拟模型位移误差测量:使用导航探针尖端分别采集ZMC虚拟模型上的5个标志点在光学追踪仪下的真实位置,通过计算其与虚拟模型对应标志点的理论位置偏差,可获得ZMC虚拟模型的位置偏移。

3)颧上颌缝、颧弓根、颧额缝三点固定ZMC后,验证虚拟模型与真实模型的叠加情况。

1.4. 临床应用

病例1,患者男性,32岁,因“颅面部损伤后伴额部塌陷1年余”入院。专科检查:意识清楚,查体配合,问答切题,颅面部左右不对称,左侧额部塌陷,额部至右侧上睑可见瘢痕,右眼义眼,左眼球动度可,视力可,左右侧嗅觉(−),双侧眼睑无下垂,皱额对称正常。入院诊断:创伤性额部畸形。治疗方案:额骨缺损行个性化聚醚醚酮(polyetheretherketone,PEEK)植入物整复。基于个性化PEEK植入物精准就位的特性,本研究将混合现实手术导航系统进行初步的临床应用,验证其在颌面创伤骨整复应用的技术路线。

1.5. 统计学方法

采用SPSS 22.0软件进行统计处理,计量资料用均数±标准差描述数据,组间数据进行单因素方差分析(方差齐性)或Kruskal-Wallis检验(方差不齐)评估组间差异。以P<0.05表示差异有统计学意义。

2. 结果

2.1. 系统误差和目标配准误差

通过对6个模型的各17个解剖标志点进行系统误差检测,结果如图4A所示,本MR导航系统的平均系统误差为(1.23±0.52)mm。对6组数据进行方差齐性检验,结果显示F=0.389,P=0.855>0.05,提示6组数据方差齐性。进一步以不同组别为自变量,系统误差值为因变量进行单因素方差分析,F=0.661,P=0.654>0.05,不同组别之间差异无统计学意义。本MR导航系统的目标配准误差结果如图4B所示,平均目标配准误差为(2.83±1.18)mm。对6组数据进行方差齐性检验,结果显示F=2.082,P=0.074>0.05,提示6组数据方差齐性。进一步以不同组别为自变量,目标配准误差值为因变量进行单因素方差分析,F=0.801,P=0.552>0.05,不同组别之间差异无统计学意义,即本系统具有较高的稳定性。

图 4. MR手术导航系统的误差测量结果.

图 4

Fig 4 Error distribution of MR-based surgical navigation system

A:系统误差;B:目标配准误差;C:Le Fort Ⅰ型截骨应用误差;D:ZMC复位应用误差。

2.2. 截骨应用误差

根据在虚拟模型上预先规划的截骨线,进行混合现实引导下双侧上颌骨Le FortⅠ型截骨实验。结果如图2F、G所示,深蓝色直线为预先设定的参考线,红色曲线为混合现实引导下的实际截骨线。误差的测量结果如图4C所示,本MR手术导航系统的平均截骨应用误差为(3.13±1.66)mm。

2.3. ZMC模型的虚拟手术复位

ZMC虚拟模型呈绿色显示,分割ZMC的头颅虚拟模型呈暗红色显示,虚拟模型的透明度均为50%,通过显示或隐藏ZMC虚拟模型,在真实头模上进行ZMC的虚拟复位,如图3I、J所示。ZMC虚拟模型的平均位置偏移误差为(3.77±1.37)mm(图4D)。

2.4. ZMC模型复位后的验证

完成ZMC复位固定、MR导航系统配准后,ZMC虚拟模型透明度为30%,分割ZMC的头颅虚拟模型透明度为80%,通过虚拟模型与真实目标的配准拟合,ZMC复位情况(图3K、L)。

2.5. 术中导航效果

本MR手术导航系统的术中导航及应用过程如图5所示。经过术前规划、光学图像配准、MR端空间标定最终实现虚拟头颅模型叠加到患者真实头颅上,并在HoloLens端直观地呈现给术者,辅助外科医生对PEEK植入材料的定位及验证。

图 5. 病例1的术前规划影像、术中导航情况和术后重建效果.

图 5

Fig 5 Preoperative surgical planning, MR navigated defect reconstruction, and the clinical outcomes of case 1

A:Unity界面规划视图;B、C:术中配准、三维虚拟图像与实际术区融合;D:手术切口设计;E、F:术中暴露缺损部位、PEEK假体植入;G、H:术前、术后额部塌陷情况对比;I:术前规划模型与术后实际模型拟合。

3. 讨论

手术导航技术在过去30年得到了广泛应用,能有效提高手术精准性,减少手术风险。但目前手术导航系统在成像显示方面仍存在一些问题,例如:是单点导航,术者在手术过程中只能看到某一点的导航信息,而无法直接看到整个术区的位置与结构信息;术中导航虚拟图像与患者术区实际图像缺乏直接的空间关系,术者需要在屏幕和术区之间频繁视野切换,这些都会影像手术的精确性和安全性[6],[12]。近年来,一些新的三维数字成像技术正迅速在医学外科领域获得应用转化,包括虚拟现实(virtual reality,VR)、增强现实(augmented reality,AR)和MR等。MR是一个新概念,它融合了VR和AR的优点,可实现三维虚拟图像与真实目标的融合显示,而且允许用户与现实世界以虚拟世界进行交互[7][8],[13]。但在手术导航方面,目前MR技术尚无法实时动态追踪移动目标、配准精度也有较大不足,这限制了其在临床的进一步应用。本研究提出搭建基于MR显示及红外光学追踪定位的手术导航系统,利用空间定位追踪、全息成像和配准技术,将患者术区虚拟模型与真实模型动态融合,并实时、直观地呈现给术者。

3.1. AR/MR技术的区别

AR/MR技术均体现了虚拟图像在真实世界中的显示。AR是通过计算摄像机视频的位置及角度并加上相应的图像分析技术,将虚拟的图像或三维模型实时地投射到现实世界中,AR为用户提供了计算机生成图像在真实环境的叠加和三维可视化[14]。MR是近年在AR基础上提出的新概念,MR将虚拟信息和真实信息融合,利用全息影像、实时交互的技术对现实世界进行重塑,实现虚拟信息在真实现实中的融合[7]。如果以一条1到0的数轴来展示AR、MR以及VR,则谷歌公司的AR设备Google Glass趋近于1,Oculcs VR公司的VR设备Oculus Rift趋近于0,而微软公司研发的HoloLens为代表MR设备居于二者之间[15]。Google Glass的AR技术为用户提供计算机衍生于现实世界中的虚拟世界或信息,基本上AR只是起到一个虚拟模型的展示和引导作用,通过显示虚拟数据和图像来“扩展”真实世界。基于HoloLens为代表的MR技术,虚拟对象不像AR那样简单地投影在现实世界的表面上,而是虚拟模型与物理目标深度融合。同时,MR技术允许用户与现实世界以及添加到其中的数字内容进行交互,具有环境与使用者的实时交互的特性。本研究基于HoloLens搭建的MR系统不仅实现虚拟模型与真实术区精确拟合,同时术者可通过“手势”“语音”“凝视”等系统模块与全息图像进行交互。

3.2. MR手术导航系统的误差分析

手术导航的根本目的是为外科医生提供立体可视化的术中定位,提高手术的精确度,降低手术风险及创伤。因此,系统配准精度是评价手术导航系统的最关键指标,主要包括系统误差、目标配准误差和应用误差三个部分[16]。本MR手术导航系统的系统误差是指真实标志点与光学坐标系下HoloLens端对应的理论虚拟标识点的误差,其主要受光学定位追踪端的定位偏差以及空间坐标转换计算的影响。本研究的整体系统误差为(1.23±0.52)mm,小于2 mm,说明本MR系统中HoloLens端虚拟世界和真实导航目标在光学追踪系统下配准具有理论可行性。这与Sun等[17]报道的(1.30±0.39)mm和Tu等[18]报道的(1.61±0.44)mm相近。

MR导航系统的目标配准误差主要受3个方面影响:1)光学定位追踪端的定位偏差,光学追踪设备在工作空间的误差小于0.2 mm,点配准算法的误差一般小于0.5 mm[19],同时,解剖标志点数目和空间分布、光学坐标系下配准操作的人为因素也会影响系统精度;2)MR端的空间标定误差,主要受配准标定误差的影响及人为坐标测量因素的影响,配准过程中需要用导航探针尖端采集HoloLens虚拟空间的虚拟标记点,可能会存在人为操作误差;3)MR端对三维环境动态定位能力,其核心为即时定位与地图构建(simultaneous localization and mapping,SLAM),目前MR设备的SLAM技术仍有不足之处:1)单目视觉技术对于三维空间理解的局限;2)头盔快速运动造成的图像模糊,导致立体配准失败;3)SLAM通常假设场景是静止的,当真实场景目标物体移动时,SLAM对场景的理解会滞后,且影响算法的稳定性[20][21]。本研究目标配准误差为(2.83±1.18)mm,该配准精度优于同类系统的目标配准精度,如Incekara等[22]报道的目标配准误差(4.0±0.8)mm,McJunkin等[23]报道的目标配准误差(5.8±0.5)mm,Fotouhi等[24]报道的目标配准误差(10.8±3.45)mm。

应用误差是导航系统在实际应用过程中产生的误差,与导航系统的校准不佳、动态参考架追踪范围不足、影像学数据漂移、术者经验等因素均有关系[16]。MR系统的应用误差主要受系统的目标配准误差及系统的实时动态追踪功能影响。本研究搭建的基于MR显示与光学定位追踪的手术导航系统,不仅可有效解决传统导航系统中导航信息和手术场景分离的问题,同时基于光学定位系统的高精度定位追踪功能,可弥补MR设备在SLAM方面的不足,从而实现MR系统对移动目标的实时动态融合显示。本研究在MR系统引导下的头颅Le FortⅠ型截骨实验的截骨应用误差为(3.13±1.66)mm,优于Gibby等[25]报道的(3.62±1.71)mm。

3.3. MR技术的临床应用

颅颌面创伤及其所致畸形具有明显的不规则性,且常累及多个解剖部位,通过MR技术对患者术前影像资料进行三维重建,可以直观地呈现损伤与邻近重要解剖结构的位置关系。在此基础上进行术中导航,将患者的术前损伤三维影像或术前规划三维影像叠加于真实术区,可以清晰地看到病变所在边界和位置、虚拟手术规划,提高手术的精确性与安全性。本研究完成了ZMC复位的模型实验和额骨缺损修复的临床应用。首先,基于MR技术的三维显示,医生能够更直观、高效地与患者进行术前沟通,患者也更能立体、直观地了解治疗方案、潜在风险和修复重建效果,这也是目前MR技术在医学领域的一个主要应用场景[26][27];其次,利用MR技术可以让术者对病灶的理解更加精准,进行术前风险评估,制定最佳手术方案,可视化的术前评估有助于增强术者的信心和提高手术安全性[10],[28];第三,术中使用基于光学定位追踪和MR技术提供的实时三维可视化拟合图像,术者可更微创、精准、完整地获取术区的视觉和空间信息,并基于术前规划影像完成修复重建过程,手术的精确性和安全性均得到提升;此外,MR技术结合3D打印技术在医学外科培训中具有较大优势。由于颌面部解剖结构复杂、骨块小、骨缝多、手术难度大,MR技术结合3D打印模型为外科培训提供了一个理想平台,能够极大地提高低年资医师的培训效率[29]

综上,本研究搭建了基于MR显示及红外光学追踪定位的手术导航系统,具有虚实融合效果佳、动态导航稳定性好的优点,在颅颌面外科的医患沟通、医学教育、术前规划和术中导航等各方面都有一定的应用优势。尽管目前基于MR技术的手术导航仍有不足之处,其大规模的临床应用尚有待相关技术的发展和改进,基于MR技术的手术导航将是数字化外科及精准医学的一个重要发展方向。

Funding Statement

[基金项目] 上海市科委科技支撑项目(20S31902200)

Supported by: Science and Technology Suppont Project of Shanghai Science and Technology Committee (20S31902200).

Footnotes

利益冲突声明:作者声明本文无利益冲突。

References

  • 1.Juergens P, Beinemann J, Zandbergen M, et al. A computer-assisted diagnostic and treatment concept to increase accuracy and safety in the extracranial correction of cranial vault asymmetries[J] J Oral Maxillofac Surg. 2012;70(3):677–684. doi: 10.1016/j.joms.2011.02.046. [DOI] [PubMed] [Google Scholar]
  • 2.Schramm A, Suarez-Cunqueiro MM, Barth EL, et al. Computer-assisted navigation in craniomaxillofacial tumors[J] J Craniofac Surg. 2008;19(4):1067–1074. doi: 10.1097/SCS.0b013e3181760fc0. [DOI] [PubMed] [Google Scholar]
  • 3.Chen Q, Zhao Y, Shen G, et al. Etiology and pathogenesis of hemifacial microsomia[J] J Dent Res. 2018;97(12):1297–1305. doi: 10.1177/0022034518795609. [DOI] [PubMed] [Google Scholar]
  • 4.Gui H, Wu J, Shen SG, et al. Navigation-guided lateral gap arthroplasty as the treatment of temporomandibular joint ankylosis[J] J Oral Maxillofac Surg. 2014;72(1):128–138. doi: 10.1016/j.joms.2013.07.039. [DOI] [PubMed] [Google Scholar]
  • 5.Yu H, Shen SG, Wang X, et al. The indication and application of computer-assisted navigation in oral and maxillofacial surgery—Shanghai's experience based on 104 cases[J] J Craniomaxillofac Surg. 2013;41(8):770–774. doi: 10.1016/j.jcms.2013.01.016. [DOI] [PubMed] [Google Scholar]
  • 6.Demian N, Pearl C, Woernley TC, 3rd, et al. Surgical navigation for oral and maxillofacial surgery[J] Oral Maxillofac Surg Clin North Am. 2019;31(4):531–538. doi: 10.1016/j.coms.2019.06.001. [DOI] [PubMed] [Google Scholar]
  • 7.Tepper OM, Rudy HL, Lefkowitz A, et al. Mixed reality with holoLens: where virtual reality meets augmented reality in the operating room[J] Plast Reconstr Surg. 2017;140(5):1066–1070. doi: 10.1097/PRS.0000000000003802. [DOI] [PubMed] [Google Scholar]
  • 8.Andrews C, Southworth MK, Silva JNA, et al. Extended reality in medical practice[J] Curr Treat Options Cardiovasc Med. 2019;21(4):18. doi: 10.1007/s11936-019-0722-7. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 9.Hu HZ, Feng XB, Shao ZW, et al. Application and prospect of mixed reality technology in medical field[J] Curr Med Sci. 2019;39(1):1–6. doi: 10.1007/s11596-019-1992-8. [DOI] [PubMed] [Google Scholar]
  • 10.Pelanis E, Kumar RP, Aghayan DL, et al. Use of mixed reality for improved spatial understanding of liver anatomy[J] Minim Invasive Ther Allied Technol. 2020;29(3):154–160. doi: 10.1080/13645706.2019.1616558. [DOI] [PubMed] [Google Scholar]
  • 11.Brun H, Bugge RAB, Suther LKR, et al. Mixed reality holograms for heart surgery planning: first user experience in congenital heart disease[J] Eur Heart J Cardiovasc Imaging. 2019;20(8):883–888. doi: 10.1093/ehjci/jey184. [DOI] [PubMed] [Google Scholar]
  • 12.Noorlag R, de Bree R, Witjes MJH. Image-guided surgery in oral cancer: toward improved margin control[J] Curr Opin Oncol. 2022;34(3):170–176. doi: 10.1097/CCO.0000000000000824. [DOI] [PubMed] [Google Scholar]
  • 13.Lee GK, Moshrefi S, Fuertes V, et al. What is your reality? Virtual, augmented, and mixed reality in plastic surgery training, education, and practice[J] Plast Reconstr Surg. 2021;147(2):505–511. doi: 10.1097/PRS.0000000000007595. [DOI] [PubMed] [Google Scholar]
  • 14.O'Reilly MK, Heagerty PJ, Gold LS, et al. Augmented reality[J] AJNR Am J Neuroradiol. 2020;41(8):E67–E68. doi: 10.3174/ajnr.A6587. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 15.Verhey JT, Haglin JM, Verhey EM, et al. Virtual, augmented, and mixed reality applications in orthopedic surgery[J] Int J Med Robot. 2020;16(2):e2067. doi: 10.1002/rcs.2067. [DOI] [PubMed] [Google Scholar]
  • 16.Widmann G, Stoffner R, Bale R. Errors and error management in image-guided craniomaxillofacial surgery[J] Oral Surg Oral Med Oral Pathol Oral Radiol Endod. 2009;107(5):701–715. doi: 10.1016/j.tripleo.2009.02.011. [DOI] [PubMed] [Google Scholar]
  • 17.Sun Q, Mai Y, Yang R, et al. Fast and accurate online calibration of optical see-through head-mounted display for AR-based surgical navigation using Microsoft HoloLens[J] Int J Comput Assist Radiol Surg. 2020;15(11):1907–1919. doi: 10.1007/s11548-020-02246-4. [DOI] [PubMed] [Google Scholar]
  • 18.Tu P, Gao Y, Lungu AJ, et al. Augmented reality based navigation for distal interlocking of intramedullary nails utilizing Microsoft HoloLens 2[J] Comput Biol Med. 2021;133:104402. doi: 10.1016/j.compbiomed.2021.104402. [DOI] [PubMed] [Google Scholar]
  • 19.Koivukangas T, Katisko JP, Koivukangas JP. Technical accuracy of optical and the electromagnetic tracking systems[J] Springerplus. 2013;2(1):90. doi: 10.1186/2193-1801-2-90. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 20.Mahmoud N, Grasa ÓG, Nicolau SA, et al. On-patient see-through augmented reality based on visual SLAM[J] Int J Comput Assist Radiol Surg. 2017;12(1):1–11. doi: 10.1007/s11548-016-1444-x. [DOI] [PubMed] [Google Scholar]
  • 21.Wu Y, Tang F, Li H. Image-based camera localization: an overview[J] Vis Comput Ind Biomed Art. 2018;1(1):8. doi: 10.1186/s42492-018-0008-z. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 22.Incekara F, Smits M, Dirven C, et al. Clinical feasibility of a wearable mixed-reality device in neurosurgery[J] World Neurosurg. 2018;118:e422–e427. doi: 10.1016/j.wneu.2018.06.208. [DOI] [PubMed] [Google Scholar]
  • 23.McJunkin JL, Jiramongkolchai P, Chung W, et al. Development of a mixed reality platform for lateral skull base anatomy[J] Otol Neurotol. 2018;39(10):e1137–e1142. doi: 10.1097/MAO.0000000000001995. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 24.Fotouhi J, Unberath M, Song T, et al. Co-localized augmented human and X-ray observers in collaborative surgical ecosystem[J] Int J Comput Assist Radiol Surg. 2019;14(9):1553–1563. doi: 10.1007/s11548-019-02035-8. [DOI] [PubMed] [Google Scholar]
  • 25.Gibby W, Cvetko S, Gibby A, et al. The application of augmented reality-based navigation for accurate target acquisition of deep brain sites: advances in neurosurgical guidance[J] J Neurosurg. 2021;17:1–7. doi: 10.3171/2021.9.JNS21510. [DOI] [PubMed] [Google Scholar]
  • 26.House PM, Pelzl S, Furrer S, et al. Use of the mixed reality tool “VSI Patient Education” for more comprehensible and imaginable patient educations before epilepsy surgery and stereotactic implantation of DBS or stereo-EEG electrodes[J] Epilepsy Res. 2020;159:106247. doi: 10.1016/j.eplepsyres.2019.106247. [DOI] [PubMed] [Google Scholar]
  • 27.Wu X, Liu R, Yu J, et al. Mixed reality technology launches in orthopedic surgery for comprehensive preoperative management of complicated cervical fractures[J] Surg Innov. 2018;25(4):421–422. doi: 10.1177/1553350618761758. [DOI] [PubMed] [Google Scholar]
  • 28.Radtke A, Sotiropoulos GC, Molmenti EP, et al. Computer-assisted surgery planning for complex liver resections: when is it helpful? A single-center experience over an 8-year period[J] Ann Surg. 2010;252(5):876–883. doi: 10.1097/SLA.0b013e3181fdd012. [DOI] [PubMed] [Google Scholar]
  • 29.Coelho G, Figueiredo EG, Rabelo NN, et al. Development and evaluation of pediatric mixed-reality model for neuroendoscopic surgical training[J] World Neurosurg. 2020;139:e189–e202. doi: 10.1016/j.wneu.2020.03.170. [DOI] [PubMed] [Google Scholar]

Articles from West China Journal of Stomatology are provided here courtesy of Editorial Department of West China Journal of Stomatology

RESOURCES