Cybernetics And Systems Analysis logo
Інформація редакції Аннотації статей Автори Архів
Кібернетика та Системний Аналіз
Міжнародний Науково-Теоретичний Журнал
-->

УДК 004.822
Г.І. Гогерчак, Н.П. Дарчук, С.Л. Кривий

ПРЕДСТАВЛЕННЯ, АНАЛІЗ ТА ВИДОБУВАННЯ ЗНАНЬ З НЕСТРУКТУРОВАНИХ
ПРИРОДНОМОВНИХ ТЕКСТІВ

Анотація. Наведено огляд засобів дескриптивних логік для представлення знань з природномовних текстів, класифікацію дескриптивних логік за кон-структорами концептів та ролей, а також основні концепції темпоральних дескриптивних логік. Розглянуто підхід до побудови систем аналізу природ-номовних текстів на основі задач визначення частин мови, пошуку грама-тичних залежностей та кореферентностей. Наведено приклади використання природномовних баз знань для розв’язання прикладних задач, зокрема для перевірки цілісності тексту, пошуку суперечностей.

Ключові слова: дескриптивні логіки, бази знань, алгоритм семантичного табло, видобування знань, оброблення природної мови, семантичний аналіз.



ПОВНИЙ ТЕКСТ

Гогерчак Григорій Іванович,
аспірант Київського національного університету імені Тараса Шевченка,
gogerchak@gmail.com

Дарчук Наталя Петрівна,
доктор філол. наук, професор, професор Київського національного університету імені Тараса Шевченка, NataliaDarchuk@gmail.com

Кривий Сергій Лук’янович,
доктор фіз.-мат. наук, професор, професор Київського національного університету імені Тараса Шевченка, sl.krivoi@gmail.com


СПИСОК ЛІТЕРАТУРИ

  1. Baader F., Calvanese D., McGuinness D., Nardi D., Patel-Schneider P. The description logic handbook. Cambridge University Press, 2007. 578 p.

  2. Кривий С.Л., Гогерчак Г.І. Логіка в математиці і інформатиці. Праці першої української конференції «Логіка та її застосування» (Київ, 26–28 листопада 2019 р.). Київ: АВАНПОСТ-ПРИМ, 2019. С. 47–55.

  3. Lutz C., Wolter F., Zakharyaschev M. Temporal description logics: A survey. Proc. of the 15th International Symposium on Temporal Representation and Reasoning (Montreal, Canada, June 16–18, 2008). IEEE Computer Society, 2008. P. 3–14. https://doi.org/10.1109/TIME.2008.14.

  4. Lutz C., Sturm H., Wolter F., Zakharyaschev M. Tableaux for temporal description logic with constant domains. Proc. of First International Joint Conference, IJCAR 2001: Automated Reasoning (Sienna, Italy, June 18–22, 2001). Springer, 2001. P. 121–136. https://doi.org/10.1007/3-540-45744-5_10.

  5. Lai S., Leung K. S., Leung Y. SUNNYNLP at SemEval-2018 Task 10: A Support-Vector-Machine-based method for detecting semantic difference using taxonomy and word embedding features. Proc. of The 12th International Workshop on Semantic Evaluation (New Orleans, USA, June 5–6, 2018). 2018. P. 741–746. http://doi.org/10.18653/v1/S18-1118.

  6. Zhan J., Zhao H. Span model for open information extraction on accurate corpus. Proc. of the AAAI Conference on Artificial Intelligence. 2020. Vol. 34, Iss. 5. P. 9523–9530. https://doi.org/10.1609/ aaai.v34i05.6497.

  7. Gangemi A., Presutti V., Reforgiato Recupero D., Nuzzolese A., Draicchio F., Mongiovi M. Semantic Web machine reading with FRED. Semantic Web. 2017. Vol. 8, Iss. 6. P. 873–893. https://doi.org/10.3233/SW-160240.

  8. Reforgiato Recupero D., Nuzzolese A., Consoli S., Presutti V., Mongiovi M., Peroni S. Extracting knowledge from text using SHELDON, a Semantic Holistic framEwork for LinkeD ONtology data. Proc. of the 24th International Conference on World Wide Web (WWW’15 Companion) (Florence, Italy, May 2015). Association for Computing Machinery, 2015. P. 235–238. https://doi.org/10.1145/ 2740908.2742842.

  9. Hoherchak H. Knowledge bases and description logics applications to natural language texts analysis. Problems in Programming. 2020. N 2–3. P. 259–269. https://doi.org/10.15407/pp2020.02-03.259.

  10. Кривий С.Л., Дарчук Н.П., Провотар О.І. Онтологоподібні системи аналізу природномовних текстів. Проблеми програмування. 2018. № 2–3. С. 132–139.

  11. Палагин А.В., Крывый С.Л., Петренко Н.Г. Знание-ориентированные информационные системы с обработкой естественно-языковых объектов: основы методологии и архитектурно-структурная организация. УСиМ. 2009. № 3. С. 42–55.

  12. Палагин А.В., Крывый С.Л., Петренко Н.Г. Об автоматизации процесса извлечения знаний из естественно-языковых текстов. Natural and Artificial Intelligence Intern. Book Series. Inteligent Processing. Sofia: ITHEA, 2012. N 9. P. 44–52.

  13. Палагин А.В., Крывый С.Л., Бибиков Д.С. Обработка предложений естественного языка с использованием словарей и частоты появления слов. Natural and Artificial Intelligence Intern. Book Series. Inteligent Processing. Sofia: ITHEA, 2010. N 9. P. 44–52.

  14. McDonald R., Nivre J., Quirmbach-Brundage Y., Goldberg Y., Das D., Ganchev K., Hall K., Petrov S., Zhang H., Tckstrm O., Bedini C., CastellЛ N.B., Lee J. Universal dependency annotation for multilingual parsing. Proc. of the 51st Annual Meeting of the Association for Computational Linguistics (Sofia, Bulgaria, August 4–9, 2013). Association for Computational Linguistics, 2013. (Vol. 2: Short Papers) P. 92–97.

  15. Mrini K., Dernoncourt F., Bui T., Chang W., Nakashole N. Rethinking self-attention: An interpretable self-attentive encoder-decoder parser. Findings of the Association for Computational Linguistics: EMNLP 2020. Association for Computational Linguistics, 2020. P. 731–742. http://doi.org/10.18653/v1/2020.findings-emnlp.65.

  16. Che W., Lui Y, Wang Y., Zheng B., Liu T. Towards better UD parsing: Deep contextualized word embeddings, ensemble, and treebank concatenation. Proc. of the CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies (Brussels, Belgium, October 31 – November 1, 2018). Association for Computational Linguistics, 2018. P. 55–64. http:// doi.org/ 10.18653/v1/K18-2005.

  17. Дарчук Н. Автоматичний синтаксичний аналіз текстів корпусу української мови. Українське мовознавство. 2013. № 43. С. 11–19.

  18. Vilain M., Burger J., Aberdeen J., Connolly D., Hirschman L. A model-theoretic coreference scoring scheme. Proc. of the 6th Message Understanding Conference (MUC-6) (Maryland, USA, November 6–8, 1995). Association for Computational Linguistics, 1995. P. 45–52. https://doi.org/10.3115/ 1072399.1072405.

  19. Stoyanov V., Gilbert N., Cardie C., Riloff E. Conundrums in noun phrase coreference resolution: Making sense of the state-of-the-art. Proc. of the Joint Conference of the 47th Annual Meeting of the Association for Computational Linguistics and the 4th International Joint Conference on Natural Language Processing (Singapore, August 2–7, 2009). Association for Computational Linguistics, 2009. P. 656–664. http://doi.org/10.3115/1690219.1690238.

  20. Luo X. On coreference resolution performance metrics. Proc. of the Conference on Human Language Technology and Empirical Methods in Natural Language Processing, HLT ’05 (Vancouver, Canada, October, 2005). Association for Computational Linguistics, 2005. P. 25–32. http://doi.org/10.3115/ 1220575.1220579.

  21. Devlin J., Chang M.-W., Lee K., Toutanova K. BERT: Pre-training of deep bidirectional transformers for language understanding. Proc. of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (Minneapolis, USA, June 2–7, 2019). Association for Computational Linguistics, 2019. Vol. 1 (Long and Short Papers). P. 4171–4186. http://dx.doi.org/10.18653/v1/N19-1423.

  22. Xu L., Choi J.D. Revealing the myth of higher-order inference in coreference resolution. Proc. of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP) (online, November 16–20, 2020). Association for Computational Linguistics, 2020. P. 8527–8533. http://dx.doi.org/ 10.18653/v1/2020.emnlp-main.686.

  23. Лукашевич Н.В. Тезаурусы в задачах информационного поиска. Москва: Изд-во Моск. ун-та, 2011. 512 с.




© 2021 Kibernetika.org. All rights reserved.