Skip to main content
Revista Brasileira de Ortopedia logoLink to Revista Brasileira de Ortopedia
. 2022 Sep 26;57(6):917–923. doi: 10.1055/s-0041-1740471

Evaluation of Intra- and Interobserver Reproducibility of the New AO/OTA Classification for Distal Radius Fractures Compared with the Fernandez Classification

Beatriz Canhoto Carula 1,2,, Giana Silveira Giostri 1, Fabiana Bebber 1, Marianna Fergutz dos S Batista 2, Flaviana Busignani da Silva 1, Eduardo Murilo Novak 1
PMCID: PMC9757955  PMID: 36540737

Abstract

Objective  To evaluate the inter- and intraobserver reliability and reproducibility of the new AO/OTA 2018 classification for distal radius fractures and to compare it with the Fernandez classification system.

Method  A questionnaire was applied in the Qualtrics software on 10 specialists in hand surgery who classified 50 radiographs of distal radius fractures according to the Fernandez and AO/OTA 2018 classifications and, subsequently, indicated their treatment. The questionnaire was applied in time T0 and repeated after 4 weeks (t1) . The mean agreement between the answers, and the reliability and inter- and intraobserver reproducibility were analyzed using kappa indexes.

Results  The mean interobserver agreement in the Fernandez classification was 76.4, and it was 59.2% in the AO/OTA 2018 classification. The intraobserver agreements were 77.3 and 56.6%, respectively. The inter- and intraobserver kappa indexes for the Fernandez classification were 0.57 and 0.55, respectively, and, in the AO/OTA 2018 classification, they were 0.34 and 0.31, respectively.

Conclusion  The AO/OTA 2018 classification showed a low intra- and interobserver reproducibility when compared with the Fernandez classification. However, both classifications have low intra- and interobserver indexes. Although the Fernandez classification did not obtain excellent results, it remains with better agreement for routine use.

Keywords: radius fractures/classification, wrist injuries, reproducibility of results, surveys and questionnaires

Introduction

Distal radius fracture (DRF) is one of the most common fractures, representing 12% of all fractures in the Brazilian population, associated or not with ulna fractures. 1 2 3 4 5 It is considered a public health problem because it affects young men due to high-energy trauma, and the elderly due to bone fragility. 5 6 7 8 In most cases, for the correct diagnosis, radiographs of the wrist in posteroanterior (PA), lateral (L), and oblique 8 incidences are sufficient to establish the appropriate treatment without excessively burdening the health system. 5 8

To be clinically useful for radiography evaluation, a classification system should be comprehensive and simple, besides having intraobserver reliability and interobserver reproducibility. 2 9 10 11 12 In 1967, the iconic classification by Frykman was published, based on simple features of radiographic anatomy. Subsequently, a series of classification systems for DRFs followed, including the classifications proposed by Melone, 13 Fernández, 14 Universal (Cooney, 1993) 15 , and the AO group (2007), 16 which basically ordered the radiographic characteristics of these lesions. 10

Currently, due to the particularities of DRFs, there is no consensus on what the best classification would be. 6 17 18 19 The AO/OTA classification (2007) is widespread among specialists and, perhaps, the most cited in articles in the literature. Easy to use, it orders the most common possibilities of DRFs without relating to the mechanism of trauma or offering a prognostic idea for the lesions. In this sense, the classification proposed by Fernandez brings elements that establish this connection with the initial trauma and the prognosis, tending to identify DRFs more widely; however, it seems to present low reproducibility in the communication between specialists. 4

In 2018, the AO/OTA group updated their classification with the addition of qualifiers and modifiers in each subtype to offer more possibilities in the identification of DRFs. 9 20 This new AO classification was more complete, but increased the complexity in its application. 21

The purpose of the present study is to evaluate the reproducibility of the AO/OTA 2018 classification among experienced surgeons and to compare it to the Fernandez classification, which is the one already used by the group of authors. Present study also has the objective of evaluating the influence of the use of these classifications on decision-making for the treatment of DRFs.

Materials and Method

A questionnaire was applied, through the online application Qualtrics, containing questions about 50 radiographs of distal radius fractures that should be analyzed using 2 different methods, the Fernandez and the AO/OTA 2018 systems, in order to classify the radiographs and choose the treatment for each one.

Radiographic images were taken retrospectively from the medical records of a trauma reference hospital. They were digital with good resolution and were standardized in the anteroposterior, profile, pronated oblique, and supinated oblique incidences of acute fractures of the distal third of the radius (with or without associated ulna fracture) in patients > 18 years of age with mature skeleton between October 2018 and March 2020. Radiographs of patients < 18 years old, with previous fractures, and poor-quality radiographs were excluded.

The images were randomly selected by hand surgeon orthopedists who were not evaluators. The collected images had their identification and date hidden throughout the questionnaire, being identified only with a number, and were randomly sampled to reduce the bias of the evaluators regarding the intraobserver reproducibility test.

Ten observers specialized in hand surgery, from different regions of Brazil and with > 10 years of training in the specialty, were invited to voluntarily evaluate the images. Initially, 11 specialists started the study, but only 10 completed all stages. A copy of both classifications was made available for consultation ( Appendix 1 , supplementary material)). Each evaluator individually answered a block of 5 questions for each of the 50 radiographs, without access to the answers of the others. Figures 1 and 2 contain an example of the guides provided.

Fig. 1.

Fig. 1

Fernandez classification.

Fig. 2.

Fig. 2

AO/ OTA 2018 classification.

The questionnaire started with the mandatory filling of an Informed Consent Form (TCLE) and identification of the evaluator. Each of the 50 radiographs belonged to a block with 5 questions ( Appendix 2 , supplementary material) asking the type of fracture according to the Fernandez classification, containing 5 alternatives and a single answer (types 1, 2, 3, 4, and 5). Next, the choice of preference for treatment was asked, also with a single response, containing the following alternatives: (1) Reduction and conservative treatment (plaster); (2) Reduction and percutaneous pining; (3) Surgical reduction and fixation with palmar "T" plate associated or not with Kirschner wires; (4) Reduction and fixation with locked volar plate; (5) Surgical reduction and fixation with blocked dorsal plate; (6) Others.

The following question contained the same x-rays, now to be classified according to the AO/OTA 2018 classification, with a single answer (2R3A1, 2R3A2, 2R3A3, 2R3B1, 2R3B2, 2R3B3, 2R3C1, 2R3C2, and 2R3C3), as well as an answer for ulna fracture, in case it was present, with the options: 2U3A1, 2U3A2, 2U3A3, 2U3B, and 2U3C or "Does not apply".

Next, the 2018 AO/OTA classification modifiers were asked, with the following options: (0) Does not apply; (1) Not diverted; (2) Diverted, (3a) Joint impaction; (3b) Metaphyseal impaction; (4) Not impacted; (5a) Previous diverted (Volar); (5b) Posterior diverted (Dorsal); (5c) Diverted ulnar; (5d) Radial diverted; (5e) Multidirectional diverted; (6a) Subluxation – Volar Ligament Instability; (6b) Subluxation – Dorsal Ligament Instability; (6c) Subluxation – Ulnar Ligament Instability; (6d) Subluxation – Radial Ligament Instability; (6e) Subluxation – Multidirectional Ligament Instability; (7) Diaphysary Extension; (8) Low Bone Quality. In this question, the evaluator could choose more than one alternative. The number of options marked for further analysis was considered: (1) Only one modifier option; (2) Two modifier options; (3) Three modifier options; (4) Four or more modifier options.

The last question of each block of radiographs questioned whether, after classifying the same fracture using the AO/OTA 2018 method, the specialist would change or maintain the initial treatment they had chosen after classifying the same radiography according to the Fernandez classification.

The first application of the questionnaire occurred concomitantly with the 10 evaluators, considered as time t0 . After 4 weeks, the evaluators answered the questionnaire again, with the same 50 radiographs in a different order from the previous one, in what was termed as time t1 .

The mean agreement between the observers in the answers to each question alone was considered, and whether the change in classifications implied the change of conduct and treatment in the interobserver analysis, in times t0 and t1 . The index was defined as excellent if > 75% of the participants agreed with the same answer, as satisfactory if the agreement ranged from 50 to75%, and as unsatisfactory if  < 50% of the participants agreed. 21

To evaluate the reliability and the reproducibility of the classifications and to compare their applicability, we tested the interobserver reproducibility, which analyzed the agreement between the 10 evaluators regarding the same fracture in relation to the chosen classifications, comparing the answers of all questions, and of all observers, in both cycles (t0 and t1).

The intraobserver reproducibility was tested by comparing the level of agreement of the same observer when answering the same questions at two different times (times t0 and t1 ). Considering that one evaluator was absent from the questionnaire in time t1, we had the comparative analysis of only nine examiners in this second stage.

The evaluation of the consistency of the inter- and intraobserver responses was used using two parameters: the proportion of agreement and the kappa index . The first is the average percentage of cases on which the evaluators agreed. The second is used to evaluate the agreement between the observers and involves adjusting the observed proportion of agreement by correcting the proportion of agreement that arises in each case. 1 7 17 23

The calculation of kappa indexes was performed in Online Kappa Calculator (Justus Randolph) with data analysis using free-marginal kappa, since the evaluators remained free to choose the answers. 20 Traditionally, the kappa coefficient values, interpreted by Landis et al., range from 0 to 1, with 1 being equal to perfect agreement and 0 corresponding to no agreement, as specified in Table 1 . 1 7 23 24

Table 1. Landis et al. interpretation for kappa values 23 .

Landis et al. interpretation for kappa values
Kappa values Interpretation
< 0 No agreement
0–0.19 Bad agreement
0.2–0.39 Low agreement
0.4–0.59 Moderate agreement
0.6–0.79 Substantial/good agreement
0.8–1.0 Excellent agreement

The present study was approved by the Ethics Committee of the institution under the number CAAE 22570419.0.0000.0020.

Results

The analysis of the responses of the initial block referring to the Fernandez classification showed an inter- and intraobserver mean agreement, respectively, of 76.40 and 77.33%. In terms of maintaining the same treatment in both questionnaires ( t0 and t1 ), agreement was 62% in the interobserver assessment and 64.7% intraobserver. In the AO/OTA 2018 classification, the inter- and intraobserver agreement for the radius fracture segment were 59.2 and 56.66%, respectively. In the ulna fractures segment, 81.2 and 80.44% intra- and interobserver fractures were obtained, respectively. And for the segment concerning the number of modifiers used, the agreement was 52.6 and 49.55%. After classification by the AO/OTA system in the radio, ulna and modifier segments, 95.4% of the evaluators maintained the treatment indication based on the Fernandez classification. Considering the intraobserver agreement for this item, 94.17% of the examiners maintained their treatment option ( Table 2 ).

Table 2. Mean intra- and interobserver agreement according to each evaluated item.

Percentage of Average Agreement
Fernandez classification Treatment option AO/OTA Rating 2018
radius segment
AO/OTA Rating 2018
ulna segment
AO/OTA Rating 2018
segment quantity of modifiers
Maintenance of the treatment option
INTEROBSERVER 76.40% 62.00% 59.20% 81.20% 52.60% 95.40%
INTRAOBSERVER 77.33% 61.77% 56.66% 80.44% 49.55% 94.17%

The overall average of interobserver agreement was considered moderate for the Fernandez classification and low for the AO/OTA 2018 classification. The treatment option after the evaluators had classified according to the classification Fernandez obtained low agreement, and the maintenance of treatment after the AO/OTA 2018 classification was considered excellent ( Table 3 ). The result of the mean intra- and interobserver agreement with all participants is found in Appendix 3 (supplementary material).

Table 3. Interpretation of the interobserver kappa values.

Interpretation of Interobserver Kappa Values
Online Kappa Calculator
Kappa Index Agreement
Fernandez classification 0.57 MODERATE
Choice of treatment 0.33 LOW
AO/OTA Rating 2018 - Radius Segment 0.34 LOW
Maintenance of the treatment option 0.83 EXCELLENT

Table 4 shows the results of the intraobserver interpretation. Kappa values remained similar to those from time t0 . Consistency was observed between the values of general percentage agreement (percent overall agreement ) in t0 and t1.

Table 4. Interpretation of intraobserver kappa values.

Interpretation of Intraobserver Kappa Values (General Percentage Agreement)
Online Kappa Calculator
Kappa index in t0 Kappa index in t1 Agreement General percentage agreement in t0 General percentage agreement in t1
Fernandez classification 0.57 0.55 Moderate 65.28% 63.69%
Choice of treatment 0.33 0.36 Low 44.22% 46.27%
AO/OTA Rating 2018- Radius Segment 0.34 0.31 Low 41.02% 38.61%
Maintenance of the treatment option 0.83 0.81 Excellent 91.47% 92.89%

Regarding the AO/OTA 2018 ulna segment classification, that is, the association of ulnar fracture, kappa indexes of 0.64 and 0.61 were obtained in time t0 and t 1, respectively, as observed in Table 5 .

Table 5. Interpretation of kappa p values for associated ulna fractures.

Interpretation of the Agreement Values of the AO/OTA Classification 2018 - Ulnar Segment and Segment Quantity of Modifiers
Online Kappa Calculator
Kappa index in t0 Kappa index in t1 Agreement General Percentage Agreement at t0 General Percentage Agreement in t1
AO/OTA Classification 2018 - Ulna Segment 0.64 0.61 Substantial/Good 69.82% 67.67%
Segment Quantity modifiers 0.18 0.17 Bad 34.53% 33.56%

Regarding the modifying segment of the AO/OTA 2018 classification, which obtained kappa values of 0.18 in time t0 and 0.17 in time t1 ( Table 5 ), the agreement was considered poor in relation to the number of modifiers used to classify each fracture. When we individually evaluated the use of modifiers, it was noticed that the most selected data was option "2 - Diverted", followed by option "5b - Subsequent Diverted", as detailed in Table 6 .

Table 6. Percentage of modifiers selected by examiners in t0 and t1.

Modifier time t0 (% )* time t1 (% )* Modifier time t0 (% )* time t1 (% )*
(0) Does not apply 0.45% 0.28% (5d) Radial diverted 6.00% 6.32%
(1) Not diverted 1.29% 1.19% (5e) Diverted multidirectional 2.51% 1.97%
(2) Diverted 25.43% 23.33% (6a) Subluxation - Volar Ligament Instability 1.16% 1.48%
(3a) Joint impaction 12.07% 11.24% (6b) Subluxation - Dorsal Ligament Instability 1.74% 2.53%
(3b) Metaphyseal impaction 13.23% 13.00% (6c) Subluxation - Ulnar Ligament Instability 0.96% 0.49%
(4) Not impacted 2.32% 1.76% (6d) Subluxation - Radial Ligament Instability 0.38% 0.28%
(5a) Previous diverted (Volar) 3.80% 4.08% (6e) Subluxation - Multidirectional Ligament Instability 0.58% 0.35%
(5b) Posterior diverted (Dorsal) 19.04% 21.71% (7) Diaphysarian Extension 1.87% 2.25%
(5c) Diverted ulnar 1.03% 1.41% (8) Low Bone Quality 6.06% 6.32%

Discussion

The data obtained in the present study showed an average intraobserver percentage agreement of 77.3% with the Fernandez classification and of 56.6% with the AO/OTA 2018, and an interobserver agreement of 76.4 and 59.2%, respectively. This comparison was made with the part of the AO/OTA 2018 classification that evaluates the radius segment because this system separates into segments for isolated evaluation of the radius and the ulna. Analyzing the kappa index for inter- and intraobserver reproducibility, the Fernandez classification resulted in moderate agreement (0.57 and 0.59, respectively), and the AO/OTA 2018 classification resulted in low agreement (0.34 and 0.31, respectively). The same results were found by Naqbi et al. 4 regarding the Fernandez classification, demonstrating moderate agreement in the evaluation of 25 radiographs by specialists, and in the work by Van Leerdam et al. 25 regarding the AO/OTA classification, which detected a low agreement.

Corroborating our study, Yinjie et al. 21 published an intra- and interobserver comparison between the Fernandez and the AO/OTA 2018 classifications in which 5 experienced surgeons evaluated 160 radiographic images. Their results were comparable to ours: moderate intraobserver reproducibility with the Fernandez classification, and low with the AO. They established that the reproducibility of the AO classification decreases with the increase of subgroups, modifiers, and qualifiers. When comparing the classification proposed by Waever et al., they proved that there was no superiority in the results of reproducibility. These authors studied 573 radiographs of patients with DRF seeking to point out a unified and universal classification system. 2

It is important to highlight the increase in the intraobserver agreement in the analysis comparing times t0 and t1 . After the classification is assimilated by the evaluator, it tends to be used in a more reproducible way. It was noticed that the fewer the options to choose in the classification, the higher will be the agreement in its use. In the evaluation of the ulnar segment of the AO/OTA 2018 classification, ∼ 80% of agreement with only 6 options was obtained. Compared with the result of the use of modifiers, which comprise > 15 options, it was observed that the agreement fell to ∼ 50%. Therefore, the agreement tends to decrease with more choices in the classification, as has already been pointed out.

The classification does not seem to interfere with the choice of treatment. After classifying according to the Fernandez classification, the evaluators opted for one conduct for each presented DRF. This conduct was maintained in almost all cases (94%) after the evaluation according to the AO/OTA 2018. At this point, the question if knowledge and personal experience tend to be preferable to the use of classification systems in the prediction of prognosis and decision-making of DRF treatment arises. 26 In a multicenter study, Mulders et al. emphasized that there it is unlikely that a consensus on the treatment of these fractures if guided specifically by classification systems will be reached, since surgeons will always tend toward strategies based on their experiences. 9 27 28

Another point to be discussed is the familiarity with the proposed classification. The Fernandez system has been used since the early 2000s, which may explain the most reproducible results. Perhaps, the proposed AO/OTA 2018 system, due to its greater richness of detail and more options for the identification of DRFs, will increase its reproducibility over time and its use will become disseminated. It is worth mentioning that none of the various classification systems for DRF have high reproducibility. 21

We found several limitations in the present study. We highlight the free application of the questionnaire, which may evidence a response bias, as well as that unlimited time was granted to answer the questionnaire, which allowed the examiners to pause the survey and resume it after a deadline of one week. Also, the only quantitative and nonqualitative evaluation of the modifiers of the AO/OTA 2018 classification, which leads to more details and difficulty to classify. In addition, we evaluated hand surgeons at only one level of training, although they were experienced. Another possible limitation was to not have evaluated which classification the examiner was accustomed to, because the higher the familiarity, the greater the reproducibility in its use. Ideally, we recommend further research on a larger scale, with evaluators of different levels of experience, with a higher sample number analyzed in the same period, and also with grouping of multiple subtypes, to be performed in order to possibly increase the consistency of the results obtained.

Conclusion

In the present study, the classifications studied did not present high agreement in inter- and intraobserver reproducibility. It is suggested that the complexity and detail of the new AO/OTA 2018 classification is the cause of its low reproducibility when compared with that of the system proposed by Fernandez.

Funding Statement

Suporte Financeiro A presente pesquisa não recebeu nenhum financiamento específico de agências de financiamento dos setores público, comercial ou sem fins lucrativos.

Financial Support The present survey has not received any specific funding from public, commercial, or not-for-profit funding agencies.

Conflito de Interesses Os autores declaram não haver conflito de interesses.

Trabalho desenvolvido no Hospital Universitário Cajuru, Curitiba, PR, Brasil

Supplementary Material

10-1055-s-0041-1740471-s2100085_pt.pdf (1.2MB, pdf)

Apêndice

Apêndice 1

10-1055-s-0041-1740471-s2100085_en.pdf (1.5MB, pdf)

Appendix

Appendix

Referências

  • 1.Tenório P HM, Vieira M M, Alberti A, Abreu M FM, Nakamoto J C, Cliquet A. Evaluation of intra- and interobserver reliability of the AO classification for wrist fractures. Rev Bras Ortop. 2018;53(06):703–706. doi: 10.1016/j.rboe.2017.08.024. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 2.Wæver D, Madsen M L, Rölfing J HD et al. Distal radius fractures are difficult to classify. Injury. 2018;49 01:S29–S32. doi: 10.1016/S0020-1383(18)30299-7. [DOI] [PubMed] [Google Scholar]
  • 3.Plant C E, Hickson C, Hedley H, Parsons N R, Costa M L. Is it time to revisit the AO classification of fractures of the distal radius? Inter- and intra-observer reliability of the AO classification. Bone Joint J. 2015;97-B(06):818–823. doi: 10.1302/0301-620X.97B6.33844. [DOI] [PubMed] [Google Scholar]
  • 4.Naqvi S G, Reynolds T, Kitsis C. Interobserver reliability and intraobserver reproducibility of the Fernandez classification for distal radius fractures. J Hand Surg Eur Vol. 2009;34(04):483–485. doi: 10.1177/1753193408101667. [DOI] [PubMed] [Google Scholar]
  • 5.Alffram P A, Bauer G C. Epidemiology of fractures of the forearm. A biomechanical investigation of bone strength. J Bone Joint Surg Am. 1962;44-A:105–114. [PubMed] [Google Scholar]
  • 6.Brogan D M, Richard M J, Ruch D, Kakar S. Management of Severely Comminuted Distal Radius Fractures. J Hand Surg Am. 2015;40(09):1905–1914. doi: 10.1016/j.jhsa.2015.03.014. [DOI] [PubMed] [Google Scholar]
  • 7.Shehovych A, Salar O, Meyer C, Ford D J. Adult distal radius fractures classification systems: essential clinical knowledge or abstract memory testing? Ann R Coll Surg Engl. 2016;98(08):525–531. doi: 10.1308/rcsann.2016.0237. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 8.Arora R, Gabl M, Gschwentner M, Deml C, Krappinger D, Lutz M. A comparative study of clinical and radiologic outcomes of unstable colles type distal radius fractures in patients older than 70 years: nonoperative treatment versus volar locking plating. J Orthop Trauma. 2009;23(04):237–242. doi: 10.1097/BOT.0b013e31819b24e9. [DOI] [PubMed] [Google Scholar]
  • 9.Meinberg E G, Agel J, Roberts C S, Karam M D, Kellam J F. Fracture and Dislocation Classification Compendium-2018. J Orthop Trauma. 2018;32 01:S1–S170. doi: 10.1097/BOT.0000000000001063. [DOI] [PubMed] [Google Scholar]
  • 10.Kanakaris N K, Lasanianos N G. New York: Springer; 2014. Distal Radial Fractures; pp. 95–105. [Google Scholar]
  • 11.Jayakumar P, Teunis T, Giménez B B, Verstreken F, Di Mascio L, Jupiter J B. AO Distal Radius Fracture Classification: Global Perspective on Observer Agreement. J Wrist Surg. 2017;6(01):46–53. doi: 10.1055/s-0036-1587316. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 12.Lee D Y, Park Y J, Park J S. A Meta-analysis of Studies of Volar Locking Plate Fixation of Distal Radius Fractures: Conventional versus Minimally Invasive Plate Osteosynthesis. Clin Orthop Surg. 2019;11(02):208–219. doi: 10.4055/cios.2019.11.2.208. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 13.Melone C P., Jr Articular fractures of the distal radius. Orthop Clin North Am. 1984;15(02):217–236. [PubMed] [Google Scholar]
  • 14.Fernandez D L. Distal radius fracture: the rationale of a classification. Chir Main. 2001;20(06):411–425. doi: 10.1016/s1297-3203(01)00067-1. [DOI] [PubMed] [Google Scholar]
  • 15.Cooney W P. Fractures of the distal radius. A modern treatment-based classification. Orthop Clin North Am. 1993;24(02):211–216. [PubMed] [Google Scholar]
  • 16.Marsh J L, Slongo T F, Agel Jet al. Fracture and dislocation classification compendium - 2007: Orthopaedic Trauma Association classification, database and outcomes committee J Orthop Trauma 200721(10, Suppl)S1–S133. [DOI] [PubMed] [Google Scholar]
  • 17.Illarramendi A, González Della Valle A, Segal E, De Carli P, Maignon G, Gallucci G. Evaluation of simplified Frykman and AO classifications of fractures of the distal radius. Assessment of interobserver and intraobserver agreement. Int Orthop. 1998;22(02):111–115. doi: 10.1007/s002640050220. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 18.Koval K, Haidukewych G J, Service B, Zirgibel B J. Controversies in the management of distal radius fractures. J Am Acad Orthop Surg. 2014;22(09):566–575. doi: 10.5435/JAAOS-22-09-566. [DOI] [PubMed] [Google Scholar]
  • 19.Thurston A J. ‘Ao’ or eponyms: the classification of wrist fractures. ANZ J Surg. 2005;75(05):347–355. doi: 10.1111/j.1445-2197.2005.03414.x. [DOI] [PubMed] [Google Scholar]
  • 20.Porrino J A, Jr, Maloney E, Scherer K, Mulcahy H, Ha A S, Allan C. Fracture of the distal radius: epidemiology and premanagement radiographic characterization. AJR Am J Roentgenol. 2014;203(03):551–559. doi: 10.2214/AJR.13.12140. [DOI] [PubMed] [Google Scholar]
  • 21.Yinjie Y, Gen W, Hongbo W et al. A retrospective evaluation of reliability and reproducibility of Arbeitsgemeinschaftfür Osteosynthesefragen classification and Fernandez classification for distal radius fracture. Medicine (Baltimore) 2020;99(02):e18508. doi: 10.1097/MD.0000000000018508. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 22.Martin J S, Marsh J L, Bonar S K, DeCoster T A, Found E M, Brandser E A. Assessment of the AO/ASIF fracture classification for the distal tibia. J Orthop Trauma. 1997;11(07):477–483. doi: 10.1097/00005131-199710000-00004. [DOI] [PubMed] [Google Scholar]
  • 23.Landis J R, Koch G G. The measurement of observer agreement for categorical data. Biometrics. 1977;33(01):159–174. [PubMed] [Google Scholar]
  • 24.Randolph J J.Online Kappa Calculator [Computer software] 2008. Available from:http://justus.randolph.name/kappa
  • 25.van Leerdam R H, Souer J S, Lindenhovius A L, Ring D C. Agreement between Initial Classification and Subsequent Reclassification of Fractures of the Distal Radius in a Prospective Cohort Study. Hand (N Y) 2010;5(01):68–71. doi: 10.1007/s11552-009-9212-9. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 26.Belloti J C, Tamaoki M J, Franciozi C E et al. Are distal radius fracture classifications reproducible? Intra and interobserver agreement. Sao Paulo Med J. 2008;126(03):180–185. doi: 10.1590/S1516-31802008000300008. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 27.Kleinlugtenbelt Y V, Groen S R, Ham S J et al. Classification systems for distal radius fractures. Acta Orthop. 2017;88(06):681–687. doi: 10.1080/17453674.2017.1338066. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 28.Mulders M A, Rikli D, Goslings J C, Schep N W. Classification and treatment of distal radius fractures: a survey among orthopaedic trauma surgeons and residents. Eur J Trauma Emerg Surg. 2017;43(02):239–248. doi: 10.1007/s00068-016-0635-z. [DOI] [PMC free article] [PubMed] [Google Scholar]
Rev Bras Ortop (Sao Paulo). 2022 Sep 26;57(6):917–923. [Article in Portuguese]

Avaliação da reprodutibilidade intra- e interobservador da nova classificação AO/OTA para fraturas distais do rádio comparada com a classificação de Fernandez

Resumo

Objetivo  Avaliar a confiabilidade e a reprodutibilidade inter- e intraobservadores da nova classificação AO/OTA 2018 para fraturas distais do rádio e compará-la com o sistema classificatório de Fernandez.

Métodos  Foi aplicado um questionário no software Qualtrics em 10 especialistas em cirurgia da mão que classificaram 50 radiografias de fraturas distais de rádio de acordo com as classificações de Fernandez e AO/OTA 2018 e, posteriormente, indicaram seu tratamento. Esse questionário foi aplicado em tempo T0 e repetido após 4 semanas (t1) . Analisou-se a média de concordância entre as respostas e confiabilidade e reprodutibilidade inter- e intraobservadores utilizando os índices kappa.

Resultados  A concordância média interobservador para a classificação de Fernandez foi de 76,4, e de 59,2% para a AO/OTA 2018. A concordância intraobservador foi de 77,3 e 56,6%, respectivamente. O índice de kappa inter- e intraobservador para a classificação de Fernandez foram de 0,57 e de 0,55, respectivamente, e a classificação AO/OTA 2018 obteve 0,34 e 0,31, respectivamente.

Conclusão  A classificação AO/OTA 2018 mostrou uma reprodutibilidade intra- e interobservadores baixa quando comparada à classificação de Fernandez. Porém, ambas as classificações apresentam índices intra- e interobservadores baixos. Embora a classificação de Fernandez não tenha obtido resultados excelentes, ela permanece com melhor concordância para o uso rotineiro.

Palavras-chave: fraturas do rádio/classificação, traumatismos do punho, reprodutibilidade dos testes, inquéritos e questionários

Introdução

A fratura distal do rádio (FDR) é uma das fraturas mais comuns, representando 12% de todas as fraturas na população brasileira, associadas ou não a fraturas da ulna, 1 2 3 4 5 e é considerada um problema de saúde pública por atingir homens jovens por traumas de alta energia e idosos pela fragilidade óssea. 5 6 7 8 Na maioria dos casos, para se obter o diagnóstico correto, radiografias do punho em incidências posteroanterior (PA), lateral (L) e obliquas 8 são suficientes para estabelecer o tratamento apropriado sem onerar excessivamente o sistema de saúde. 5 8

Para que a avaliação da radiografia seja clinicamente útil, um sistema de classificação deve ser abrangente e simples, além de ter confiabilidade intraobservadores e reprodutibilidade interobservadores. 2 9 10 11 12 Em 1967, foi publicada a icônica classificação de Frykman, baseada em características simples da anatomia radiográfica. Posteriormente, seguiu-se uma série de sistemas classificatórios para FDR, entre os quais citamos as classificações propostas por Melone, 13 Fernández, 14 Universal (Cooney, 1993) 15 e grupo AO (2007), 16 que ordenam basicamente as características radiográficas destas lesões. 10

Atualmente, não existe consenso quanto a qual seria a melhor classificação, devido singularmente às particularidades da FDR. 6 17 18 19 A classificação AO/OTA (2007) é muito difundida entre especialistas e, talvez, a mais citada em artigos na literatura. De fácil utilização, ordena as possibilidades mais comuns de FDR sem relacionar com o mecanismo de trauma ou ofertar ideia prognóstica das lesões. Neste sentido, a classificação proposta por Fernandez traz elementos que estabelecem esta ligação com o trauma inicial e o prognóstico, tendendo a identificar mais amplamente a FDR; contudo, parece apresentar baixa reprodutibilidade na comunicação entre os especialistas. 4

Em 2018, o grupo AO/OTA efetuou uma atualização da sua classificação com a adição de qualificadores e modificadores em cada subtipo com o propósito de ofertar mais possibilidades na identificação das FDRs. 9 20 Esta nova classificação AO ficou mais completa, porém aumentou a complexidade na aplicação. 21

O propósito do presente estudo é avaliar a reprodutibilidade da classificação AO/OTA 2018 entre cirurgiões experientes e compará-la com a classificação de Fernandez, a já utilizada pelo grupo dos autores. O presente estudo também tem como objetivo avaliar a influência do uso destas classificações na tomada de decisão para o tratamento das FDRs.

Materiais e Método

Foi utilizado um questionário, aplicado por meio do aplicativo online Qualtrics , contendo perguntas sobre 50 radiografias de FDRs a serem analisadas utilizando 2 diferentes métodos, o de Fernandez e o AO/OTA 2018, para classificar radiografias e escolher o tratamento para cada uma.

As imagens radiográficas foram tomadas retrospectivamente de prontuários de um hospital referência em trauma. Elas eram digitais, tinham boa resolução e estavam padronizadas nas incidências anteroposterior (AP), perfil, oblíqua pronada e oblíqua supinada de fraturas agudas do terço distal do rádio (com ou sem fratura da ulna associada), em pacientes > 18 anos com esqueleto maduro, entre outubro de 2018 e março de 2020. Foram excluídas radiografias de pacientes < 18 anos, fraturas prévias e radiografias de má qualidade.

As imagens foram selecionadas aleatoriamente por ortopedistas cirurgiões da mão, que não foram avaliadores. As imagens coletadas tiveram sua identificação e data ocultadas em todo o questionário, sendo identificadas apenas com um número, e foram amostradas de maneira randomizada, para reduzir o viés dos avaliadores quanto ao teste de reprodutibilidade intraobservador.

Dez observadores especialistas em cirurgia da mão, de diferentes regiões do Brasil e com > 10 anos de formação na especialidade, foram convidados para voluntariamente avaliar as imagens. Inicialmente, 11 especialistas iniciaram o estudo, porém apenas 10 concluíram todas as etapas. Foram disponibilizadas cópias das duas classificações para consulta. ( Apêndice 1 , disponível apenas on-line) Cada avaliador, individualmente, respondeu um bloco de 5 questões para cada uma das 50 radiografias, sem acesso às respostas dos demais. A seguir, é apresentado um exemplo dos guias disponibilizados ( Figuras 1 e 2 ).

Fig. 1.

Fig. 1

Classificação Fernandez.

Fig. 2.

Fig. 2

Classificação AO/ OTA 2018.

O questionário iniciava com o preenchimento obrigatório de um Termo de Consentimento Livre Esclarecido (TCLE) e com a identificação do avaliador. Cada uma das 50 radiografias pertencia a um bloco com 5 perguntas ( Apêndice 2 , disponível apenas on-line) questionando qual era o tipo de fratura de acordo com a classificação de Fernandez, contendo 5 alternativas e 1 resposta única (tipos 1, 2, 3, 4 e 5). Em seguida, solicitava-se a escolha de preferência para o tratamento, também com resposta única, contendo as seguintes alternativas: (1) redução e tratamento conservador (gesso); (2) redução e pinagem percutânea; (3) redução cirúrgica e fixação com placa em “T” palmar associada ou não a fios de Kirschner; (4) redução e fixação com placa volar bloqueada; (5) redução cirúrgica e fixação com placa dorsal bloqueada; (6) outros.

A questão seguinte continha a mesma radiografia, agora para ser classificada de acordo com a classificação AO/OTA 2018, com resposta única entre 2R3A1, 2R3A2, 2R3A3, 2R3B1, 2R3B2, 2R3B3, 2R3C1, 2R3C2 e 2R3C3; o avaliador também era solicitado a responder quanto a fratura da ulna, caso presente, nas opções: 2U3A1, 2U3A2, 2U3A3, 2U3B e 2U3C ou “não se aplica”.

Na sequência, perguntava-se sobre os modificadores da classificação AO/OTA 2018, com as seguintes opções: (0) não se aplica; (1) não desviada; (2) desviada, (3a) impactação articular; (3b) impactação metafisária; (4) não impactada; (5a) desviada anterior (volar); (5b) desviada posterior (dorsal); (5c) desviada ulnar; (5d) desviada radial; (5e) desviada multidirecional; (6a) subluxação – instabilidade ligamentar volar; (6b) subluxação – instabilidade ligamentar dorsal; (6c) subluxação – instabilidade ligamentar ulnar; (6d) subluxação – instabilidade ligamentar radial; (6e) subluxação – instabilidade ligamentar multidirecional; (7) extensão diafisária; e (8) baixa qualidade óssea. Nesta questão, o avaliador poderia escolher mais de uma alternativa. Foram consideradas a quantidade de opções assinaladas para análise posterior: (1) apenas uma opção de modificador; (2) duas opções de modificadores; (3) três opções de modificadores; (4) quatro ou mais opções de modificadores assinaladas.

A última questão de cada bloco de radiografias interrogava se, após classificar esta mesma fratura utilizando o método AO/OTA 2018, o avaliador mudaria ou manteria seu tratamento inicial escolhido após classificar a fratura da radiografia em questão de acordo com a classificação de Fernandez.

A primeira aplicação do questionário ocorreu de maneira concomitante aos 10 avaliadores, considerada como tempo t0 . Após 4 semanas, os avaliadores responderam novamente ao questionário, com as mesmas 50 radiografias em ordem diferente da anterior, em tempo nominado t1 .

Foram ponderadas a média de concordância entre os observadores nas respostas de cada questão isoladamente e se a mudança das classificações implicou mudança de conduta e tratamento na análise interobservador, nos tempos t0 e t1 . Definiu-se como índice excelente se > 75% dos participantes concordassem com a mesma resposta, satisfatório se entre 50 e 75%, e insatisfatório se < 50%. 22

Para avaliar a confiabilidade e a reprodutibilidade das classificações e comparar sua aplicabilidade, testou-se a reprodutibilidade interobservador, que analisou a concordância entre os 10 avaliadores acerca de uma mesma fratura em relação às classificações escolhidas, comparando-se as respostas de todas as perguntas de todos os observadores nos dois ciclos ( t0 e t1 ).

A reprodutibilidade intraobservador foi testada comparando-se o nível de concordância de um mesmo observador ao responder às mesmas questões em dois tempos diferentes (tempos t0 e t1 ). Considerando que um avaliador se ausentou do questionário no tempo t1 , tivemos a análise comparativa de apenas nove examinadores nesta segunda etapa.

A avaliação da consistência das respostas inter- e intraobservador foi empregada pelo uso de dois parâmetros: a proporção de concordância e o índice kappa . A primeira é a porcentagem média de casos nos quais os avaliadores concordaram. O segundo avalia a concordância entre os observadores e envolve o ajuste da proporção observada de concordância pela correção da proporção de concordância que surge em cada caso. 1 7 17 23

O cálculo dos índices kappa foi realizado em software online ( Online Kappa Calculator / Justus Randolph) e a análise dos dados foi realizada utilizando-se free-marginal kappa , haja vista que os avaliadores permaneceram livres para escolher as respostas. 20 Tradicionalmente, os valores do coeficiente kappa , interpretados por Landis et al., variam de 0 a 1, sendo 1 igual a concordância perfeita e 0 quando não há concordância, como especificado na Tabela 1 . 1 7 23 24

Tabela 1. Interpretação de Landis et al. para valores de kappa 23 .

Interpretação de Landis et al. para valores de kappa
Valores de kappa Interpretação
< 0 Sem concordância
0–0,19 Concordância ruim
0,2–0,39 Concordância baixa
0,4–0,59 Concordância moderada
0,6–0,79 Concordância substancial/boa
0,8–1,0 Concordância excelente

O presente trabalho teve a aprovação do Comitê de Ética da instituição sob o número CAAE 22570419.0.0000.0020.

Resultados

A análise das respostas do bloco inicial, referente à classificação de Fernandez, mostrou uma concordância média inter- e intraobservador, respectivamente, de 76,40 e 77,33%. No quesito manter o mesmo tratamento nos dois questionários ( t0 e t1 ), a concordância foi de 62% na avaliação interobservador e 64,7% intraobservador. Na classificação AO/OTA 2018, as concordâncias inter- e intraobservador para o segmento fratura do rádio foram de 59,2 e 56,66%, respectivamente. No segmento fraturas de ulna, obteve-se 81,2 e 80,44% nas concordâncias intra- e interobservador, respectivamente. E para o segmento quantidade de modificadores utilizados, a concordância foi de 52,6 e 49,55%. Após a classificação pelo sistema AO/ OTA nos segmentos radio, ulna e modificadores, 95,4% dos avaliadores mantiveram a indicação de tratamento feita baseado na classificação de Fernandez. Considerando a concordância intraobservador para este item, 94,17% mantiveram a opção de tratamento ( Tabela 2 ).

Tabela 2. Média de concordância intra- e interobservador de acordo com cada quesito avaliado.

Percentual da média de concordância
Classificação de Fernandez Opção de tratamento Classificação AO/OTA 2018
Segmento Rádio
Classificação AO/OTA 2018
segmento Ulna
Classificação AO/OTA 2018
Segmento quantidade de modificadores
Manutenção da opção de tratamento
Interobservador 76,40% 62,00% 59,20% 81,20% 52,60% 95,40%
Intraobservador 77,33% 61,77% 56,66% 80,44% 49,55% 94,17%

A média global de concordância interobservador foi considerada moderada para a classificação de Fernandez e baixa para a classificação AO/OTA 2018. A opção de tratamento após os avaliadores classificarem segundo os critérios de Fernandez obteve concordância baixa, e a manutenção do tratamento após a classificação AO/OTA 2018 foi considerada excelente ( Tabela 3 ). O resultado da média de concordância intra- e interobservador com todos os participantes se encontra no ( Anexo 3 , disponível apenas on-line).

Tabela 3. Interpretação dos valores de kappa interobservador.

INTERPRETAÇÃO DOS VALORES KAPPA INTEROBSERVADOR
Online Kappa Calculator
Índice Kappa Concordância
CLASSIFICAÇÃO DE FERNANDEZ 0,57 MODERADA
ESCOLHA DE TRATAMENTO 0,33 BAIXA
CLASSIFICAÇÃO AO/OTA 2018- SEGMENTO RáDIO 0,34 BAIXA
MANUTENÇÃO DA OPÇÃO DE TRATAMENTO 0,83 EXCELENTE

Na Tabela 4 , estão demonstrados os resultados da interpretação intraobservador. Os valores de kappa mantiveram-se similares ao tempo t0 . Observou-se consistência entre os valores de acordo percentual geral em t0 e t1.

Tabela 4. Interpretação dos valores de kappa intraobservador.

Interpretação dos valores kappa intraobservador (acordo percentual geral)
Online Kappa Calculator
Índice Kappa em t0 Índice Kappa
em t1
Concordância Acordo Percentual geral em t0 Acordo Percentual geral em t1
Classificação de Fernandez 0,57 0,55 Moderada 65,28% 63,69%
Escolha de tratamento 0,33 0,36 Baixa 44,22% 46,27%
Classificação AO/OTA 2018- Segmento rádio 0,34 0,31 Baixa 41,02% 38,61%
Manutenção da opção de tratamento 0,83 0,81 Excelente 91,47% 92,89%

Quanto à classificação AO/OTA 2018 segmento ulna, ou seja, quanto à associação de fratura de ulna, foram obtidos índices kappa de 0,64 e 0,61, nos tempos t0 e t1 , respectivamente, como apresentado na Tabela 5 .

Tabela 5. Interpretação dos valores de kappa para fraturas associadas da ulna.

Interpretação dos valores de concordância da classificação AO/OTA 2018–Segmento ulnar e segmento quantidade de modificadores
Online Kappa Calculator
Índice kappa em t0 Índice kappa em t1 Concordância Acordo percentual geral em t0 Acordo percentual geral em t1
Classificação AO/OTA 2018–Segmento ulnar e 0,64 0,61 Substancial/Boa 69,82% 67,67%
Segmento quantidade modificadores 0,18 0,17 Ruim 34,53% 33,56%

Em relação ao segmento modificadores da classificação AO/OTA 2018, levando em consideração os valores de kappa de 0,18 no tempo t0 e de 0,17 no tempo t1 ( Tabela 5 ), a concordância foi considerada ruim em relação à quantidade de modificadores utilizada para classificar cada fratura. Quando avaliamos individualmente o uso de modificadores, notou-se que o dado mais selecionado foi a opção “2; desviada”, seguida pela opção “5b; desviada posterior”, como detalhado na Tabela 6 .

Tabela 6. Porcentagem de modificadores selecionados pelos examinadores em t0 e t1.

Modificador tempo t0 (%)* tempo t1 (%)* Modificador Tempo t0 (%)* Tempo t1 (%)*
(0) Não se aplica 0,45% 0,28% (5d) Desviada radial 6,00% 6,32%
(1) Não desviada 1,29% 1,19% (5e) Desviada multidirecional 2,51% 1,97%
(2) Desviada 25,43% 23,33% (6a) Subluxação - Instabilidade Ligamentar Volar 1,16% 1,48%
(3a) Impactação articular 12,07% 11,24% (6b) Subluxação - Instabilidade Ligamentar Dorsal 1,74% 2,53%
(3b) Impactação metafisária 13,23% 13,00% (6c) Subluxação - Instabilidade Ligamentar Ulnar 0,96% 0,49%
(4) Não impactada 2,32% 1,76% (6d) Subluxação - Instabilidade Ligamentar Radial 0,38% 0,28%
(5a) Desviada anterior (Volar) 3,80% 4,08% (6e) Subluxação - Instabilidade Ligamentar Multidirecional 0,58% 0,35%
(5b) Desviada posterior (Dorsal) 19,04% 21,71% (7) Extensão Diafisária 1,87% 2,25%
(5c) Desviada ulnar 1,03% 1,41% (8) Baixa Qualidade Óssea 6,06% 6,32%

Discussão

Os dados obtidos no presente estudo mostraram uma concordância percentual intraobservador média de 77,3% com a classificação de Fernandez e de 56,6% com a AO/OTA 2018. A concordância percentual interobservador média foi de 76,4 e 59,2% para cada classificação, respectivamente. Esta comparação foi feita com a parte da classificação AO/OTA 2018 que avalia o segmento rádio, pois este sistema separa em segmentos para avaliação isolada de rádio e ulna. Analisando o índice kappa para reprodutibilidade inter- e intraobservador, a classificação de Fernandez resultou em concordância moderada (0,57 e 0,59, respectivamente) e a classificação AO/OTA 2018 em concordância baixa (0,34 e 0,31, respectivamente). Os mesmos resultados foram encontrados por Naqvi et al. 4 em relação à classificação de Fernandez, demonstrando concordância moderada na avaliação de 25 radiografias por especialistas, e no trabalho de Van Leerdam et al. 25 a respeito da classificação AO/OTA, com baixa concordância.

Corroborando os resultados do nosso estudo, Yinjie et al. 21 publicaram uma comparação intra- e interobservador entre as classificações de Fernandez e AO/OTA 2018, na qual 5 cirurgiões experientes avaliaram 160 imagens radiográficas. Os autores obtiveram resultados semelhantes aos nossos: reprodutibilidade intraobservador moderada com Fernandez e baixa com AO. Eles estabeleceram que a reprodutibilidade da classificação AO diminui com o aumento de subgrupos, de modificadores e de qualificadores. Quando comparada com a classificação proposta por Waever et al., eles provaram não haver superioridade nos resultados de reprodutibilidade. Estes autores estudaram 573 radiografias de pacientes com FDR buscando apontar um sistema classificatório unificado e universal. 2

É importante ressaltar o aumento da concordância intraobservadores na análise entre os tempos t0 e t1 . Depois que a classificação é assimilada pelo avaliador, ela tende a ser usada de forma mais reprodutível. Percebeu-se que quanto menos opções para escolha na classificação, maior será a concordância no seu uso. Na avaliação do segmento ulnar da classificação AO/OTA 2018, obteve-se ∼ 80% na concordância com apenas 6 opções. Comparada com o resultado do uso de modificadores, com mais de 15 opções, observou-se que a concordância caiu para ∼ de 50%. Portanto, a concordância tende a diminuir quanto mais opções de escolha houver na classificação, como apontado anteriormente.

A classificação não parece interferir na escolha do tratamento. Após classificar de acordo com os critérios de Fernandez, os avaliadores optaram por uma condução para cada FDR apresentada. Houve manutenção desta conduta na quase totalidade dos casos (94%) após efetuarem a avaliação de acordo com o AO/OTA 2018. Nesta linha, indaga-se que conhecimento e qual experiência pessoal tendem a ser preferíveis ao uso de sistemas classificatórios na predição de prognóstico e na tomada de decisão do tratamento das FDRs. 26 Em um estudo multicêntrico, Mulders et al. enfatizaram que, dificilmente, haverá consenso no tratamento destas fraturas caso se seja guiado especificamente por sistemas classificatórios, pois os cirurgiões tenderão sempre a estratégias baseadas em suas experiências. 9 27 28

Outro ponto a ser discutido é a familiaridade com a classificação proposta. O sistema de Fernandez vem sendo utilizado desde o início dos anos 2000, podendo explicar os resultados mais reprodutíveis. Talvez, o sistema AO/OTA 2018 proposto, por maior riqueza de detalhes e mais opções para identificação da FDR, aumente sua reprodutibilidade com o passar do tempo e a disseminação do seu uso. Deve-se salientar que nenhum dos vários sistemas classificatórios para FDR apresenta reprodutibilidade alta. 21

Encontramos várias limitações no presente estudo. Destacamos a aplicação livre do questionário, o que pode evidenciar um viés de resposta. Ressaltamos também o tempo ilimitado concedido para responder o questionário, o qual permitia pausar a pesquisa e retomá-la após o prazo de 1 semana. Outra limitação foi a avaliação apenas quantitativa e não qualitativa dos modificadores da classificação AO/OTA 2018, a qual leva a mais detalhes e dificuldade para classificar. Ademais, avaliamos cirurgiões da mão em apenas um nível de formação, embora experientes. Outra possível limitação foi não avaliar com qual classificação o examinador estava habituado, pois quanto maior a familiaridade, maior a reprodutibilidade no seu uso. Idealmente, sugere-se pesquisas em maior escala, com avaliadores de diferentes níveis de experiência, com um maior número amostral analisado em um mesmo período, além de com o agrupamento de múltiplos subtipos, de modo a, possivelmente, aumentar a consistência dos resultados obtidos.

Conclusão

No presente estudo, as classificações estudadas não apresentaram concordância alta na reprodutibilidade inter- e intraobservador. Sugere-se que complexidade e o detalhamento da nova classificação AO/OTA 2018 seja a causa da reprodutibilidade baixa quando comparada com a do sistema proposto por Fernandez.


Articles from Revista Brasileira de Ortopedia are provided here courtesy of Sociedade Brasileira de Ortopedia e Traumatologia

RESOURCES