DOI
10.34229/KCA2522-9664.25.4.2
УДК 004.8
М.З. ЗГУРОВСЬКИЙ
Навчально-науковий комплекс «Інститут прикладного системного аналізу» Національного технічного університету України «Київський політехнічний інститут імені Ігоря Сікорського», Київ, Україна,
zgurovsm@hotmail@
Глобальні тренди штучного інтелекту: виклики, можливості, перспективи
Анотація. Феномен стрімкої трансформації світу під впливом штучного інтелекту (ШІ) зумовлений його здатністю прискорювати інновації, змінювати економічні процеси, впливати на способи взаємодії людей із технологіями та відкривати нові перспективи для розвитку людства. Останні роки характеризуються безпрецедентним темпом впровадження ШІ у ключові сфери життя, що суттєво змінює ринок праці, наукові дослідження, соці- альні комунікації, глобальну безпеку та економіку. Проте ці зміни потребують усвідомленого підходу до регулювання, визначення етичних меж та адаптації суспільства до нових технологічних реалій. Важливо, щоб ШІ залишався інструментом прогресу, що сприяє сталому розвитку, а не створював загрозу для стабільності та добробуту людства.
Ключові слова: штучні нейронні мережі, дата-центри, графічні процесори (GPU), тензорні процесори (TPU), нейронні процесори (NPU), великі дані (Big Data), машинне навчання, оброблення природної мови (NLP), сценарії розвитку ШІ.
повний текст
СПИСОК ЛІТЕРАТУРИ
- 1. Robison K. OpenAI cofounder Ilya Sutskever says the way AI is built is about to change. Dec 14, 2024. URL: https://www.theverge.com/2024/12/13/24320811/what-ilya-sutskever-sees-openai-model-data-training.
- 2. Andrus B. Open-source artificial intelligence: 9 powerful models worth trying. URL: https://www.dreamhost.com/blog/open-source-ai/.
- 3. Згуровський М.З., Хіміч О.М. Штучний інтелект: зміна парадигми у фундаментальних науках. Нобелівські премії з фізики і хімії 2024 року. Вісн. НАН України. 2024. № 12. С. 17–26. https://doi.org/10.15407/visn2024.12.017.
- 4. AI funding around the world — SwissCognitive AI investment radar. 2024. URL: https://swisscognitive.ch/2024/11/13/ai-funding-around-the-world-swisscognitive-ai-investment-radar/.
- 5. LeCun Y., Bengio Y., Hinton G. Deep learning for AI. Nature. 2021. Vol. 521(7553). P. 436–444. URL: https://www.cs.toronto.edu/~hinton/absps/NatureDeepReview.pdf.
- 6. Brown T.B., Mann T.B., Ryder N. et al. Language models are few-shot learners. arXiv:2005.14165v4 [cs.CL] 22 Jul 2020. https://doi.org/10.48550/arXiv.2005.14165.
- 7. OpenAI, Achiam J., Adler S. et al. GPT-4 technical report. arXiv:2303.08774v6 [cs.CL] 4 Mar 2024. https://doi.org/10.48550/arXiv.2303.08774.
- 8. GPT-4o mini: advancing cost-efficient intelligence. URL: https://openai.com/index/gpt-4o-mini-advancing-cost-efficient-intelligence/.
- 9. Devlin J., Chang M.-W., Lee K., Toutanova K. BERT: Pre-training of deep bidirectional transformers for language understanding. arXiv:1810.04805v2 [cs.CL], 24 May 2019. https://doi.org/10.48550/arXiv.1810.04805.
- 10. Liu Y., Ott M., Goyal N., Du J., Joshi M., Chen D., Levy O., Lewis M., Zettlemoyer L., Stoyanov V. RoBERTa: A robustly optimized BERT pretraining approach. arXiv:1907.11692v1 [cs.CL], 26 Jul 2019. https://doi.org/10.48550/arXiv.1907.11692.
- 11. Lan Z., Chen M., Goodman S., Gimpel K., Sharma P., Soricut R. ALBERT: A lite BERT for self-supervised learning of language representations. arXiv:1909.11942v6 [cs.CL], 9 Feb 2020. https://doi.org/10.48550/arXiv.1909.11942.
- 12. GPT-4V(ision) system card. URL: https://openai.com/index/gpt-4v-system-card/.
- 13. Radford A., Kim J.W., Hallacy C., Ramesh A., Goh G., Agarwal S., Sastry G., Askell A., Mishkin P., Clark J., Krueger J., Sutskever I. Learning transferable visual models from natural language supervision. arXiv:2103.00020v1 [cs.CV], 26 Feb 2021. https://doi.org/10.48550/.
- 14. Georgiev P., Lei V.I., Burnell R. et al. Gemini 1.5: Unlocking multimodal understanding across millions of tokens of context. arXiv:2403.05530v5 [cs.CL], 16 Dec 2024. https://doi.org/10.48550/arXiv.2403.05530.
- 15. Claude 3.5 Sonnet. URL: https://www.anthropic.com/news/claude-3-5-sonnet.
- 16. Introducing Meta LLaMA 3: The most capable openly available LLM to date. URL: https://ai.meta.com/blog/meta-llama-3/.
- 17. Mixtral of experts. URL: https://mistral.ai/news/mixtral-of-experts/.
- 18. Krizhevsky A., Sutskever I., Hinton G.E. ImageNet classification with deep convolutional neural networks. In: Advances in neural information processing systems 25 (NIPS 2012). Pereira F., Burges C.J., Bottou L., Weinberger K.Q. (Eds.). 2012. Vol. 25. P. 1097–1105. URL: https://proceedings.neurips.cc/paper_files/paper/2012/.
- 19. Simonyan K., Zisserman A. Very deep convolutional networks for large-scale image recognition. arXiv:1409.1556v6 [cs.CV], 10 Apr 2015. https://doi.org/10.48550/arXiv.1409.1556.
- 20. He K., Zhang X., Ren S., Sun J. Deep residual learning for image recognition. arXiv:1512.03385v1 [cs.CV], 10 Dec 2015. https://doi.org/10.48550/arXiv.1512.03385.
- 21. Tan M., Le Q.V. EfficientNet: Rethinking model scaling for convolutional neural networks. arXiv:1905.11946v5 [cs.LG], 11 Sep 2020. https://doi.org/10.48550/arXiv.1905.11946.
- 22. Hochreiter S., Schmidhuber J. Long short-term memory. Neural Computation. 1997. Vol. 9, N 8. P. 1735–1780. URL: https://www.bioinf.jku.at/publications/older/2604.pdf.
- 23. Cho K., van Merrinboer B., Bahdanau D., Bengio Y. On the properties of neural machine translation: Encoder-decoder approaches. arXiv:1409.1259v2 [cs.CL], 7 Oct 2014. https://doi.org/10.48550/arXiv.1409.1259.
- 24. Shazeer N., Mirhoseini A., Maziarz K., Davis A., Le Q., Hinton G., Dean J. Outrageously large neural networks: The Sparsely-Gated Mixture-of-Experts layer. arXiv:1701.06538v1 [cs.LG], 23 Jan 2017. https://doi.org/10.48550/arXiv.1701.06538.
- 25. Child R., Gray S., Radford A., Sutskever I. Generating long sequences with sparse transformers. arXiv:1904.10509v1 [cs.LG], 23 Apr 2019. https://doi.org/10.48550/arXiv.1904.10509.
- 26. Shaip. What are training data in machine learning: Definition, benefits, challenges, examples, and datasets. Shaip, 2025. URL: https://www.shaip.com/blog/buyers-guide/?utm_source=chatgpt.com.
- 27. Srivastava N., Hinton G., Krizhevsky A., Sutskever I., Salakhutdinov R. Dropout: A simple way to prevent neural networks from overfitting. The Journal of Machine Learning Research. 2014. Vol. 15, Iss. 56, P. 1929–1958. URL: https://jmlr.org/papers/v15/srivastava14a.html.
- 28. Jia C., Yang Y., Xia Y., Chen Y.-T., Parekh Z., Pham H., Le Q.V., Sung Y.-H., Li Z., Duerig T. Scaling up visual and vision-language representation learning with noisy text supervision. arXiv:2102.05918v1 [cs.CV], 11 Feb 2021. https://doi.org/10.48550/arXiv.2102.05918.
- 29. Goodfellow I.J., Shlens J., Szegedy C. Explaining and harnessing adversarial examples. arXiv:1412.6572v3 [stat.ML], 20 Mar 2015. https://doi.org/10.48550/arXiv.1412.6572.
- 30. Buolamwini J., Gebru T. Gender shades: Intersectional accuracy disparities in commercial gender classification. Proc. 1st Conference on Fairness, Accountability and Transparency (23–24 February 2018, New York, NY, USA). New York, 2018. PMLR. Vol. 81. P. 77–91. URL: https://proceedings.mlr.press/.
- 31. Ribeiro M.T., Singh S., Guestrin C. “Why should i trust you?”: Explaining the predictions of any classifier. arXiv:1602.04938v3 [cs.LG], 9 Aug 2016. https://doi.org/10.48550/arXiv.1602.04938.
- 32. Molnar C. Interpretable machine learning: A guide for making black box models explainable. Leanpub, 2022. 364 p. URL: https://leanpub.com/interpretable-machine-learning.
- 33. Han S., Mao H., Dally W.J. Deep compression: Compressing deep neural networks with pruning, trained quantization and huffman coding. arXiv:1510.00149v5 [cs.CV], 15 Feb 2016. https://doi.org/10.48550/arXiv.1510.00149.
- 34. Zhou J., Gandomi A.H., Chen F., Holzinger A. Evaluating the quality of machine learning explanations: A survey on methods and metrics. Electronics. 2021. Vol. 10, Iss. 5. Article number 593. https://doi.org/10.3390/electronics10050593.
- 35. HumanEval: A benchmark for evaluating code generation models. URL: https://github.com/openai/human-eval.
- 36. Claude 3.5 Sonnet vs. GPT-4o: Learn how Claude 3.5 Sonnet compares to GPT-4o on data extraction, classification and verbal reasoning tasks. URL: https://www.vellum.ai/blog/ claude-3-5-sonnet-vs-gpt4o.
- 37. Compare GPT-4 Turbo vs Llama 3 70B Instruct. URL: https://docsbot.ai/models/compare/ .
- 38. Llama 3 70B vs. GPT-4: Comparison analysis. URL: https://www.vellum.ai/blog/llama-3-70b-vs-gpt-4-comparison-analysis.
- 39. Patterson D., Gonzalez J., Le Q., Liang C., Munguia L.-M., Rothchild D., So D., Texier M., Dean J. Carbon emissions and large neural network training. arXiv:2104.10350v3 [cs.LG], 23 Apr 2021. https://doi.org/10.48550/arXiv.2104.10350.
- 40. Lepikhin D., Lee H., Xu Y., Chen D., Firat O., Huang Y., Krikun M., Shazeer N., Wang Z. GShard: Scaling giant models with conditional computation and automatic sharding. arXiv:2006.16668v1 [cs.LG], 30 Jun 2020. https://doi.org/10.48550/arXiv.2006.16668.
- 41. Beltagy I., Peters M.E., Cohan A. Longformer: The long-document transformer. arXiv:2004.05150v1 [cs.CL], 10 Apr 2020. https://doi.org/10.48550/arXiv.2004.05150.
- 42. Han S., Pool J., Tran J., Dally W.J. Learning both weights and connections for efficient neural networks. arXiv:1506.02626v3 [cs.NE], 30 Oct 2015. https://doi.org/10.48550/arXiv.1506.02626.
- 43. NVIDIA. H100 Tensor Core GPU. URL: https://www.nvidia.com/en-us/data-center/h100/.
- 44. McMahan H.B., Moore E., Ramage D., Hampson S., y Arcas B.A. Communication-efficient learning of deep networks from decentralized data. arXiv:1602.05629v4 [cs.LG], 26 Jan 2023. https://doi.org/10.48550/arXiv.1602.05629.
- 45. Dean J., Corrado G., Monga R., Chen K., Devin M., Mao M.Z., Ranzato M., Senior A., Tucker P., Yang K., Ng A.Y., Le Q.V., Large scale distributed deep networks. Advances in Neural Information Processing Systems 25 (NIPS 2012). Pereira F., Burges C.J., Bottou L., Weinberger K.Q. (Eds.). 2012. Vol. 25. P. 1232–1240. URL: https://papers.nips.cc/paper/4687-large-scale-distributed-deep-networks.
- 46. Energy and AI. Report. International Energy Agency, 2024. 304 p. URL: https://www.iea.org/reports/energy-and-ai .
- 47. AI and efficiency. URL: https://openai.com/index/ai-and-efficiency/.
- 48. Де найбільше дата-центрів? URL: https://denovo.ua/blog/total-data-centers-in-the-world-2024.
- 49. Powering artificial intelligence: A study of AI’s environmental footprint — today and tomorrow. URL: https://www.deloitte.com/global/en/issues/climate/powering-ai.html.
- 50. Introducing DBRX: A new state-of-the-art open LLM. URL: https://www.databricks.com/ blog/introducing-dbrx-new-state-art-open-llm.
- 51. Muennighoff N., Soldaini L., Groeneveld D., Lo K., Morrison J., Min S., Shi W., Walsh P., Tafjord ., Lambert N., Gu Y., Arora S., Bhagia A., Schwenk D., Wadden D., Wettig A., Hui B., Dettmers T., Kiela D., Farhadi A., Smith N.A., Koh P.W., Singh A., Hajishirzi H. OLMoE: Open Mixture-of-Experts language models. arXiv:2409.02060v1 [cs.CL], 3 Sep 2024. https://doi.org/10.48550/arXiv.2409.02060.
- 52. CES 2025: The year edge AI took over. URL: https://hailo.ai/blog/ces-2025-the-year-edge-ai-took-over/.
- 53. Shen S., Hou L., Zhou Y., Du N., Longpre S., et al. Mixture-of-Experts meets instruction tuning: A winning combination for large language models. arXiv:2305.14705v2 [cs.CL], 5 Jul 2023. https://doi.org/10.48550/arXiv.2305.14705.
- 54. Chen J.C.-Y., Yun S., Stengel-Eskin E., Chen T., Bansal M. Symbolic Mixture-of-Experts: Adaptive skill-based routing for heterogeneous reasoning. arXiv:2503.05641v2 [cs.CL], 11 Mar 2025. https://doi.org/10.48550/arXiv.2503.05641.
- 55. Elgammal A., Liu B., Elhoseiny M., Mazzone M. CAN: Creative adversarial networks, generating “art” by learning about styles and deviating from style norms. arXiv:1706.07068v1 [cs.AI], 21 Jun 2017. https://doi.org/10.48550/arXiv.1706.07068.
- 56. Bai Y., Kadavath S., Kundu S., et al. Constitutional AI: Harmlessness from AI feedback. arXiv:2212.08073v1 [cs.CL], 15 Dec 2022. https://doi.org/10.48550/arXiv.2212.08073.
- 57. Kurzweil R. The singularity is nearer. Penguin Random House, 2024. 432 p. URL: https://www.penguinrandomhouse.ca/books/535433/the-singularity-is-nearer-by-ray-kurzweil/9780399562761.
- 58. Hendrycks D. AI and national security: Navigating the new frontier. Center for AI Safety, 2024. URL: https://www.centerforaisafety.org/.
- 59. Siegmann C., Anderljung M. The Brussels effect and artificial intelligence: How EU Regulation will impact the global AI market. arXiv:2208.12645v1 [cs.CY], 23 Aug 2022. https://doi.org/10.48550/arXiv.2208.12645.
- 60. Jobs lost, jobs gained: Workforce transitions in a time of automation. McKinsey Global Institute. Executive Summary. McKinsey & Company, 2017. 28 p. URL: https://www.mckinsey.com/.
- 61. The Guardian. Microsoft says everyone will be a boss in the future — of AI employees. URL: https://www.theguardian.com/technology/2025/.