You are here

İki Sonuçlu Tanı Testlerinde İki Hekim Arasındaki Uyum İstatistiklerinin Prevalanstan Etkilenme Durumları

Agreement Statistics Impacts of Prevalence Between the Two Clinicians in Binary Diagnostic Tests

Journal Name:

Publication Year:

Abstract (2. Language): 
Objective: It has been recommended a lot of statistics in the literature to test the agreement (consistent) of both clinicians (the raters) for a diagnostic test with two categories. Scott’s  statistics and Cohen’s kappa statistics used most frequently in the literature. As an alternative to this statistics, the AC1 statistics have been developed by Gwet. The purpose of this study, to determine agreement statistics, used to test the agreement between two raters, whether affected by the prevalence. Material and Methods: For testing marginal homogeneity of all agreement statistics, it’s formulated and calculated by taking partial derivatives on behalf of prevalence. Results: It’s determined that , kappa, G-index and AC1 gave similar results with prevalence case is equal to 0.50. Moreover G-index is determined equal to a fixed value for all prevalence values. In addition,  and kappa statistics are equal to 0 when prevalence values case is high (equal to 1) or low (equal to 0) and its observed these values are not accurately reflect the agreement between raters. Conclusion: In this study, it’s researched that the agreement statistics between raters in the 2x2 trial designs. And, it’s concluded that G-index and AC1 statistics not affected sensitivity, specify and prevalence value than other agreement statistics and showed a better performance.
Abstract (Original Language): 
Amaç: İki kategorisi olan bir tanı testinin iki hekimin (değerlendiricinin) uyumunu (tutarlılığını) test edebilmek için literatürde pek çok uyum istatistikleri önerilmektedir. Literatürde çok yaygın olarak kullanılan Scott’ın  istatistiği ve Cohen’in kappa istatistiğidir. Bu istatistiklere alternatif olarak Gwet tarafından AC1 istatistiği geliştirilmiştir. Bu çalışmanın amacı, iki değerlendirici arasındaki uyumu test etmekte kullanılan uyum istatistiklerinin, prevalanstan etkilenip etkilenmediklerini ortaya koymaktır. Gereç ve Yöntemler: Tüm uyum istatistiklerinin marjinal homojenliğini test edebilmek adına prevalansa göre kısmi türevleri alınarak formüle edilip hesaplanmıştır. Bulgular: Prevalans değerinin 0.50’e eşit olduğu durumda , kappa, G-index ve AC1 uyum istatistiklerinin benzer sonuçlar verdiği hatta G-index’in tüm prevalans değerleri için sabit bir değere eşit olduğu belirlenmiştir. Bunun yanı sıra prevalans değeri yüksek (1’e eşit) veya düşük (0’a eşit) olduğunda  ve kappa istatistiklerinin 0 değerini aldığı ve bu değerlerin değerlendiriciler arasındaki uyumu doğru bir şekilde yansıtmadığı gözlenmiştir. Sonuç: Bu çalışmada, 2X2 deneme düzenlerinde, değerlendiriciler arasındaki uyum istatistikleri araştırılmış ve diğer uyum istatistiklerine nazaran G-index ve AC1 istatistiğinin duyarlılık, seçicilik ve prevelans değerinden etkilenmediği ve daha iyi bir performans gösterdiği sonucuna varılmıştır.
153-158

REFERENCES

References: 

1. Gwet K. Kappa Statistics is not Satisfactory for
Assessing the Extent of Agreement Between Raters.
Series: Statistical Methods Inter-Rater Reliability
Assesment 2002; 1: 1-5.
2. Gwet KL. Computing Inter-Rater Reliability and Its
Variance in the Presence of High Agreement. Br J
Mathem Stat Psychol 2008; 61: 29-48. DOI:
10.1348/000711006X126600
3. Gwet K. Inter-Rater Reliability: Dependency on
Trait Prevelance and Marginal Homogeneity. Series:
Statistical Methods for Inter-Rater Reliability
Assessment 2002; 2:1-9.
4. Gwet K. Handbook of Inter-Rater Reliability; 1st
rev ed. USA: STATAXIS Publishing Company;
2001.
5. Kundel HT, Polansky M. Measurement of Observer
Agreement. Radiology: Statistical Concepts Series
2003; 228: 303-8. DOI: 10.1148/radiol.2282011860
6. Haley DT, Thomas P, Petre M, Roeck AD. Using a
New Inter-Rater Reliability Statistics. Technl Rep
2008; 15: 14-23.
7. Blood ES, Kevin F. Disagreement on Agreement:
Two Alternative Agreement Coefficients. SAS
Global Forum 2007.
8. Feuerman M, Miller AR. Relationships Between
Statistical Measures of Agreement: Sensitivity,
Specificity and Kappa. J Eval Clin Pract 2008; 14:
930-3. DOI: 10.1111/j.1365-2753.2008.00984.x
9. Feuerman M, Miller AR. The Kappa Statistics as a
Function of Sensitivity and Specifity. IJEMEST
2005; 36 (5): 517-27. DOI:
10.1080/002073905000063967

Thank you for copying data from http://www.arastirmax.com