表 5. Feature extraction and classification algorithm comparison of speech imagery BCI system.
言语想象BCI系统的特征提取及分类算法比较
| 文献 | 材料 | 特征提取及分类 | 准确率 |
| 注:表中第二列若没有引用参考文献,代表此篇论文使用的数据为作者所采集;若有文献引用,则此篇论文使用的数据为所引用的文献数据 | |||
| DaSalla等[45],2009 | 元音:/a/和/u/ | CSP; SVM |
配对二分类(平均): /a/与空闲状态72.33%, /u/与空闲状态78.00%, /a/与/u/62.67% |
| Riaz等[35],2015 | 元音:/a/和/u/[45] | MFCC; KNN |
配对二分类(平均): /a/与空闲状态75.00%, /u/与空闲状态93.83%, /a/与/u/91.83% |
| Iqbal等[69],2016 | 元音:/a/和/u/[45] | 均值、标准差; 线性分类器 |
配对二分类(平均): /a/与空闲状态94.17%, /u/与空闲状态100.00%, /a/与/u/95.00% |
| Zhao等[66],2015 | 音位或音节:/iy/、/uw/、/piy/、/tiy/、/diy/、/m/和/n/; 单词:“pat”、“pot”、“knew”和“gnaw” |
均值、中值、标准差等时域统计特征; SVM |
语音类别二分类: 平均55.40%, 最高79.16% |
| Sun等[96],2016 | 音位或音节:/iy/、/uw/、/piy/、/tiy/、/diy/、/m/和/n/; 单词:“pat”、“pot”、“knew”和“gnaw”[66] |
神经网络(neural networks,NN) | 语音类别二分类: 平均69.80%, 最高87.00% |
| Saha等[89],2019 | 音位或音节:/iy/、/uw/、/piy/、/tiy/、/diy/、/m/和/n/; 单词:“pat”、“pot”、“knew”和“gnaw”[66] |
基于通道的协方差矩阵; CNN、LSTM、深度自编码器(deep auto encoder,DAE)、XGBoost算法(extreme gradient boost) |
语音类别二分类: 平均77.90%, 最高85.23% |
| Bakhshali等[78],2020 | 音位或音节:/iy/、/uw/、/piy/、/tiy/、/diy/、/m/和/n/; 单词:“pat”、“pot”、“knew”和“gnaw”[66] |
基于相关熵谱密度的黎曼距离; KNN |
语音类别二分类: 平均77.39%, 最高86.52% |
| Cooney等[74],2018 | 音位或音节:/iy/、/uw/、/piy/、/tiy/、/diy/、/m/和/n/; 单词:“pat”、“pot”、“knew”和“gnaw”[66] |
MFCC; SVM |
十一分类: 平均20.80%, 最高33.33% |
| Panachakel等[97],2019 | 音节:/iy/、/uw/、/piy/、/tiy/、/diy/、/m/和/n/;单词:“pat”、“pot”、“knew”和“gnaw”[66] | DWT; DNN |
十一分类: 平均57.15%, 最高84.23% |
| Coretto等[58],2017 | 五个元音:/a/、/e/、/i/、/o/和/u/;六个西班牙单词:“arriba”、“abajo”、“izquierda”、“derecho”、“adelante”和“atras”对应汉语为上、下、左、右、 前、后 |
DWT; RF |
元音五分类: 平均22.32%; 单词六分类: 平均18.58% |
| Garcia-Salinas等[77],2018 | 六个西班牙单词:“arriba”、“abajo”、“izquierda”、“derecho”、“adelante”和“atras”[58] | 张量分解; SVM |
单词六分类: 平均59.70% |
| Cooney等[87],2019 | 五个元音:/a/、/e/、/i/、/o/和/u/[58] | CNN,迁移学习 | 元音五分类: 平均35.68% |
| Cooney等[98],2020 | 五个元音:/a/、/e/、/i/、/o/和/u/;六个西班牙单词:“arriba”、“abajo”、“izquierda”、“derecho”、“adelante”和“atras”[58] | 浅层CNN,深层CNN,EEGNet | 元音五分类: 平均30.00%; 单词六分类: 平均24.97% |