Buradasınız

YABANCI DİL ÖĞRENCİLERİNİN YAZILI ANLATIM BECERİLERİNİN DEĞERLENDİRİLMESİ: DOĞRU DİLBİLGİSİ KULLANIMININ, DENEYİMSİZ ÖĞRETMENLERİN VERDİKLERİ NOTLARA ETKİSİ

ASSESSMENT OF EFL LEARNERS’ WRITING SKILLS: THE IMPACT OF GRAMMATICAL ACCURACY ON NOVICE TEACHERS’ SCORING

Journal Name:

Publication Year:

Abstract (2. Language): 
In many English language teaching programs, assessment of students’ written products has usually been done analytically to increase raters’ objectivity and reliability. In analytic assessment, raters are expected to assign separate scores for a certain number of components of students’ compositions. Assessing in this way, however, raises the question of whether raters consider each component independently in assigning their scores. This study, therefore, examined the probable effects of improvement in one component (grammar/language use) upon novice Turkish English language teachers’ grading the whole composition and the other four components (content, organization, vocabulary, and mechanics). For this purpose, 14 teachers, teaching at Anadolu University Prep School, were asked to grade 20 student essays twice over a one-month interval. However, before the second grading, the errors in language use were corrected by a native speaker instructor of English. The results of statistical analysis regarding the first and second gradings revealed that the teachers tend to assign considerably higher scores in the second grading for all of the other four components. This led, in turn, to significant increases in the students’ overall grades.
Abstract (Original Language): 
Son zamanlarda, birçok İngilizce yabancı dil öğretimi programında, öğrencilerin yazılı anlatım kağıtları analitik yöntemle değerlendirilmektedir. Bu yöntemle, değerlendirmeyi yapan öğretmenlerin objektifliği ve güvenilirliğinin artırılması amaçlanmaktadır. Analitik değerlendirmede, öğrenci kompozisyonlarının farklı bileşenlerine (gramer/dil kullanımı, içerik, organizasyon, kelime ve noktalama işaretleri kullanımı) ayrı ayrı notlar verilmesi beklenmektedir. Bu ise, öğretmenlerin, farklı özelliklere birbirinden bağımsız olarak not vermede tutarlı olup olmadıkları sorusunu gündeme getirmektedir. Dolayısıyla, bu çalışmada, kompozisyonların bir bileşeninde (gramer/dil kullanımı) yapılan düzeltmelerin, değerlendirme işinde deneyimsiz Türk İngilizce öğretmenlerinin, kompozisyonların diğer bileşenlerine verdikleri notlara etkisi incelenmiştir. Bu amaçla, Anadolu Üniversitesi Hazırlık Okulu’nda çalışan 14 öğretmenden, bir aylık arayla 20 öğrencinin yazılı anlatım kağıtlarını iki kez değerlendirmeleri istenmiştir. İkinci değerlendirmeden önce, kağıtlardaki gramer hataları bir İngiliz öğretmen tarafından düzeltilmiştir. Birinci ve ikinci notların istatistiki karşılaştırılması, bir bileşendeki iyileştirmenin, diğer bileşenlere verilen notlarda önemli artışa yol açtığını göstermiştir. Doğal olarak, her bir bileşene verilen notlardaki artış, kağıtların bütününe verilen notları da anlamlı biçimde artırmıştır.
85-103

REFERENCES

References: 

Baker, D. (1989). Language Testing: A Critical Survey and Practical Guide. Great
Britain: British Library Cataloguing in Publication Data.
Gay, L. (1985). Educational Evaluation and Measurement: Competencies for
Analysis and Application (Second Edition). Ohio: Bell & Howell Company.
Harrison, A. (1983). A Language Testing Handbook. Hong Kong: Macmillan
Publishers Ltd.
Henning, G. (1986). Twenty Common Testing Mistakes for EFL Teachers to Avoid.
A Forum Anthology: Selected Articles from the English Teaching Forum.
Washington D.C.: English Language Programs Division Bureau of Educational
Affairs United States Information Agency.
Huang, J. (2008). How Accurate Are ESL Students’ Holistic Writing Scores on Large-
Scale Assesssment? A Generalizability Theory Approach. Assessing Writing, 13,
201-218.
Hughes, A. (1989). Testing for Language Teachers. Great Britain: Cambridge
University Press.
Jacobs, H. et. al. (1981). Testing ESL Composition: A Practical Approach. Boston:
Newbury House.
Janopoulos, M. (1992). University Faculty Tolerance of NS and NNS Writing Errors: A
Comparison. Journal of Second Language Writing, 1 (2), 109-121.
Johnson, R., Penny, J. and Gordon P. (2000). The Relation between Score Resolution
Methods and Interrater Reliability: An Emprical Study of an Analytic Scoring
Rubric. Applied Measurement in Education, 13 (2), 121-138.
Kroll, B. (1991). Teaching Writing in the ESL Context: Teaching English as a
Second and Foreign Language. Boston: Heinle & Heinle Publishers.
Kubiszyn, T. and Borich, G. (1990). Educational Testing and Measurement:
Classroom Application and Practice. United States of America: Library of
Congress Cataloguing-in-Publication Data.
Leki, I. (1992). Understanding ESL Writers: A Guide for Teachers. Portsmouth:
Heineman.
Perkins, K. (1983). On the Use of Composition Scoring Techniques, Objective Measures
and Objective Tests To Evaluate ESL Writing Ability. TESOL Quarterly, 17 (4),
651-671.
Ruth, L. and Murphy, S. (1988). Designing Writing Tasks for the Assessment of
Writing. New Jersey: Ablex Publishing Cooperation.
Santos, T. (1988). Proffessors’ Reactions to the Academic Writing of Non-Native
Speaking Students. TESOL Quarterly, 22 (1), 69-90.
Shohamy et. al. (1992). The Effect of Raters’ Background and Training on The
Reliability of Direct Writing Tests. Modern Language Journal, 22 (1), 69-90.
Sweedler-Brown, C. (1993) The influence of Sentence-Level and Rhetorical Features.
Journal of Second Language Writing, 2 (1), 3-17.
Vann, R., Meyer, D. and Lorenz, F. (1984). Error Gravity. A Study of Faculty Opinion
of ESL Errors. TESOL Quarterly, 18 (4), 427-440.

Thank you for copying data from http://www.arastirmax.com