Cybernetics And Systems Analysis logo
Інформація редакції Аннотації статей Автори Архів
Кібернетика та Системний Аналіз
Міжнародний Науково-Теоретичний Журнал
-->

УДК 004.912

А.С. КОЛЕСНИК,
Національний технічний університет «Харківський політехнічний інститут», Харків, Україна, kolesniknastya20@gmail.com

Н.Ф. ХАЙРОВА,
Національний технічний університет «Харківський політехнічний інститут», Харків, Україна, nina_khajrova@yahoo.com


ОБҐРУНТУВАННЯ ВИКОРИСТАННЯ СТАТИСТИКИ КАППА КОЕНА
В ЕКСПЕРИМЕНТАЛЬНИХ ДОСЛІДЖЕННЯХ NLP ТА TEXT MINING

Анотація. Виконано порівняння сучасних метрик оцінювання узгодженості (agreement coefficients) між результатами експериментів і експертною думкою та оцінено можливість використання цих метрик під час проведення експериментальних досліджень у галузі автоматичного оброблення текстів методами машинного навчання. Обґрунтовано вибір коефіцієнта каппа Коена як міри оцінювання узгодженості думок експертів у задачах NLP та Text Mining. Наведено приклад застосування коефіцієнта каппа Коена для оцінювання рівня узгодженості між думкою експерта і результатами ML класифікації та міри узгодженості думок експертів у випадку вирівнювання речень казахсько-російського паралельного корпусу. На підставі наведеного аналізу доведено, що завдяки зручності у використанні, простоті обчислення та високій точністі результатів коефіцієнт каппа Коена є одним з найкращих статистичних методів визначення рівня узгодженості в експериментальних дослідженнях текстів.

Ключові слова: Text Mining, NLP, статистика каппа Коена, коефіцієнт узгодженості, класифікація текстів методами машинного навчання, паралельний корпус.


ПОВНИЙ ТЕКСТ

СПИСОК ЛІТЕРАТУРИ

  1. Lindstdt R., Proksch S.-O., Slapin J.B. When experts disagree: response aggregation and its consequences in expert surveys. Political Science Research and Methods. 2020. Vol. 8, Iss. 3. P. 580–588. https://doi.org/10.1017/psrm.2018.52.

  2. Cohen J. A coefficient of agreement for nominal scales. Educational and Psychological Measurement. 1960. Vol. XX, N 1. P. 3746. https://doi.org/10.1177/001316446002000104.

  3. Freitag R.M.K. Kappa statistic for judgment agreement in Sociolinguistics. Revista de Estudos da Linguagem. 2019. Vol. 27, N 4. P. 1591–1612. http://dx.doi.org/10.17851/2237-2083.0.0.1591-1612.

  4. Franceschini F., Maisano D. Decision concordance with incomplete expert rankings in manufacturing applications. Research in Engineering Design. 2020. Vol. 31, Iss. 4. P. 471–490. https://doi.org/10.1007/s00163-020-00340-x.

  5. Mielke P.W. Jr., Berry K.J., Johnston J.E. Unweighted and weighted kappa as measures of agreement for multiple judges. International Journal of Management. Vol. 26, N 2. 2009. P. 213–223.

  6. Banerjee M., Capozzoli M., McSweeney L., Sinha D. Beyond Kappa: a review of interrater agreement measures. The Canadian Journal of Statistics. 2008. Vol. 27, Iss. 1. P. 3–23. https://doi.org/10.2307/3315487.

  7. Gwet K.L. Handbook of inter-rater reliability. Gaithersburg: Advanced Analytics, LLC, 2014. 428 p.

  8. Conger A.J. Integration and generalization of kappas for multiple raters. Psychological Bulletin. 1980. Vol. 88, Iss. 2. P. 322–328. https://doi.org/10.1037/0033-2909.88.2.322.

  9. Nelson K.P., Edwards D. Measures of agreement between many raters for ordinal classifications. Statistics in Medicine. 2015. Vol. 34, Iss. 23. P. 3116–3132. https://doi.org/10.1002/sim.6546.

  10. Ohyama T. Statistical inference of agreement coefficient between two raters with binary outcomes. Communications in Statistics — Theory and Methods. 2020. Vol. 49, Iss. 10. P. 2529–2539. https://doi.org/10.1080/03610926.2019.1576894.

  11. Fleiss J.L. Measuring nominal scale agreement among many raters. Psychological Bulletin. 1971. Vol. 76, Iss. 5. P. 378–382. https://doi.org/10.1037/h0031619.

  12. Light R.J. Measures of response agreement for qualitative data: Some generalizations and alternatives. Psychological Bulletin. 1971. Vol. 76, Iss. 5. P. 365–377. https://doi.org/10.1037/h0031643.

  13. Khairova N., Kolesnyk A., Mamyrbayev O., Mukhsina K. The aligned Kazakh-Russian parallel corpus focused on the criminal theme. Proc. 3rd International Conference on Computational Linguistics and Intelligent Systems (COLINS-2019) (18–19 April 2019, Kharkiv, Ukraine). Kharkiv, 2019. P. 116–125.

  14. Хайрова Н.Ф., Колесник А.С., Мамырбаев О.Ж., Мухсина К.Ж. Выровненный казахско-русский параллельный корпус, ориентированный на криминальную тематику. Вестник Алматинского университета энергетики и связи. 2020. № 1 (48). C. 84–92.

  15. Nichols T.R., Wisner P.M., Cripe G., Gulabchand L. Putting the Kappa statistic to use. The Quality Assurance Journal. 2010. Vol. 13, Iss. 3–4. P. 57–61. https://doi.org/10.1002/qaj.481.




© 2022 Kibernetika.org. All rights reserved.