Skip to main content
. 2021 Sep 17;14(4):3609–3620. doi: 10.1007/s12652-021-03488-z

Table 4.

Quantitative comparison among deep learning, various handcrafted and ensemble feature extraction methods (Classifier wise false positive rate (in %))

Features Gaussian Naïve Bayes Decision Tree Random Forest XGB Classifier
F1 0.56 0.55 0.50 0.50
F1 + F2 0.46 0.43 0.41 0.41
F1 + F3 0.43 0.43 0.39 0.38
F1 + F4 0.36 0.33 0.30 0.29
F1 + F5 0.37 0.37 0.34 0.32
F1 + F2 + F3 0.34 0.31 0.31 0.29
F1 + F2 + F4 0.29 0.28 0.26 0.24
F1 + F2 + F5 0.29 0.29 0.28 0.26
F1 + F3 + F4 0.31 0.28 0.27 0.24
F1 + F3 + F5 0.33 0.31 0.30 0.26
F1 + F4 + F5 0.27 0.25 0.24 0.23
F1 + F2 + F3 + F4 0.24 0.21 0.20 0.20
F1 + F2 + F3 + F5 0.25 0.24 0.24 0.21
F1 + F2 + F4 + F5 0.20 0.20 0.19 0.17
F1 + F3 + F4 + F5 0.23 0.21 0.19 0.20
F1 + F2 + F3 + F4 + F5 0.18 0.17 0.15 0.15

Bold face of text depicting the maximum accuracy achieved in each table