Table 4.
Quantitative comparison among deep learning, various handcrafted and ensemble feature extraction methods (Classifier wise false positive rate (in %))
Features | Gaussian Naïve Bayes | Decision Tree | Random Forest | XGB Classifier |
---|---|---|---|---|
F1 | 0.56 | 0.55 | 0.50 | 0.50 |
F1 + F2 | 0.46 | 0.43 | 0.41 | 0.41 |
F1 + F3 | 0.43 | 0.43 | 0.39 | 0.38 |
F1 + F4 | 0.36 | 0.33 | 0.30 | 0.29 |
F1 + F5 | 0.37 | 0.37 | 0.34 | 0.32 |
F1 + F2 + F3 | 0.34 | 0.31 | 0.31 | 0.29 |
F1 + F2 + F4 | 0.29 | 0.28 | 0.26 | 0.24 |
F1 + F2 + F5 | 0.29 | 0.29 | 0.28 | 0.26 |
F1 + F3 + F4 | 0.31 | 0.28 | 0.27 | 0.24 |
F1 + F3 + F5 | 0.33 | 0.31 | 0.30 | 0.26 |
F1 + F4 + F5 | 0.27 | 0.25 | 0.24 | 0.23 |
F1 + F2 + F3 + F4 | 0.24 | 0.21 | 0.20 | 0.20 |
F1 + F2 + F3 + F5 | 0.25 | 0.24 | 0.24 | 0.21 |
F1 + F2 + F4 + F5 | 0.20 | 0.20 | 0.19 | 0.17 |
F1 + F3 + F4 + F5 | 0.23 | 0.21 | 0.19 | 0.20 |
F1 + F2 + F3 + F4 + F5 | 0.18 | 0.17 | 0.15 | 0.15 |
Bold face of text depicting the maximum accuracy achieved in each table