Яхваров Е.К., Афанасьев А.В., Аринушкина А.А.
О рисках когнитивных искажений использования систем искусственного интеллекта в образовательной деятельности вузов России // Вестник Московского Университета. Серия 20. Педагогическое образование.
2025.
№ 4.
С. 65-93
Яхваров Е.К. (Военно-космическая академия имени А.Ф. Можайского) Афанасьев А.В. (Военно-космическая академия имени А.Ф. Можайского) Аринушкина А.А. (Военный университет имени князя Александра Невского Министерства обороны Российской Федерации)
Аннотация
Актуальность. Внедрение в образовательную среду вузов России систем, созданных на основе технологий искусственного интеллекта (ИИ), формирует парадигму образования, которая потребует новых методологических подходов и педагогических приемов для полноценной реализации возможностей таких систем и избежания рисков, создаваемых этими технологиями.
Цель. Цель исследования — формирование методического аппарата, позволяющего управлять рисками при использовании систем ИИ в образовательной деятельности вузов России.
Выборка. Представляет собой курсантскую учебную группу из n = 20 человек, являющуюся малой независимой выборкой, которая сравнивается с гипотетической генеральной нормальной совокупностью, представляющей собой аналогичные группы из n = 20 в 40 вузах.
Методы. Методологическую основу статьи составляет применение рискориентированного подхода к использованию систем ИИ в образовательной деятельности вуза.
Результаты. Риск-ориентированный подход к созданию методического обеспечения использования систем ИИ в образовательной деятельности вузов России позволит создать методологическую основу для исследования возможностей ускорения процессов получения знаний, умений и навыков обучающимися и избежания возможных негативных эффектов, основанных на рисках «слепого доверия» к системам ИИ.
Выводы. Использование ИИ в образовательной деятельности вузов России
влечет за собой кроме позитивных аспектов ряд рисков. В этой связи применение систем ИИ должно сопровождаться совокупностью методических
подходов, исключающих «слепое доверие» преподавателей и обучающихся
к системам ИИ.
Булатов, А., Бертулис, А., Булатова, Н. (2007). Процессы локального усреднения в иллюзии Мюллера-Лайера. Сенсорные системы, 21(1), 10–18.
Ганчеренок, И.И., Горбачев, Н.Н. (2024). Искусственный интеллект в образовании: осознание противоречий. Научно-методическое обеспечение оценки качества образования, 2(20), 41–49.
Горбачева, Т.А. (2025). Искусственный интеллект: риски и проблемы внедрения в Российской Федерации. Инновационная экономика: информация, аналитика, прогнозы, (1), 96–105. https://10.47576/2949-1894.2025.1.1.014
Канеман, Д., Тверски, А. (2015). Теория перспектив: анализ принятия решений в условиях риска. Экономика и математические методы, 51(1), 3–25.
Кант, И. (1907). Критика чистого разума. Санкт-Петербург: тип. М.М. Стасюлевича.
Кини, Р.Л., Райфа, Х. (1981). Принятие решений при многих критериях: предпочтения и замещения. Москва: Изд-во «Радио и связь».
Кирюшин, А.Н., Устинов, И.Ю., Петрий, П.В. (2025). Модели взаимодействия человека и искусственного интеллекта: содержание и их использование в военном деле. Военный академический журнал, 2(46), 139–147.
Кобринский, Б.А. (2024). Доверие к технологиям искусственного интеллекта. Искусственный интеллект и принятие решений, (3), 3–17. https://doi.org/10.14357/20718594240301
Мишуткин, И.В. (2025). Вместе мы — сила: сотрудничество Военного университета имени князя Александра Невского и Московского физико-технического института в области науки и образования. Военный академический журнал, 1(45), 6–8.
Намиот, Д.Е., Ильюшин, Е.А. (2025). Об оценке доверия к системам Искусственного интеллекта. International Journal of Open Information Technologies, 13(3), 75–90.
Сычев, А.А. (2023). Ценность доверия в эпоху искусственного интеллекта и новой этики: проблемы и вызовы. Социальные нормы и практики, (3), 64–78. https://doi.org/10.24412/2713-1033-2023-3-64-78
Шмит, В.Р. (2025). Чат-боты на основе искусственного интеллекта и психология: оценка фундаментальных знаний и практических навыков. Psychology and Cognitive Sciences, 151(2), 174–189. https://doi.org/10.32523/3080-1893-2025-151-2-175-189
Arinushkina, A.A. (ed.). (2025). Integration Strategies of Generative AI in Higher Education. Hershey: IGI Global Publ.
Arinushkina, A.A., Abramov, V.I., Mindzaeva, E.V. (2025). Generative AI as a Tool for Developing Critical Thinking in Higher Education. In: Integration Strategies of Generative AI in Higher Education (pp. 283–300). Hershey: IGI Global Publ.
Balakrishnan, J., Dwivedi, Y.K., Hughes, L., Boy, F. (2024). Enablers and inhibitors of AI-powered voice assistants: a dual-factor approach by integrating the status quo bias and technology acceptance model. Information Systems Frontiers, 26(3), 921–942. https://doi.org/10.1007/s10796-021-10203-y
Berber, A., Srećković, S. (2024). When something goes wrong: Who is responsible for errors in ML decision-making? AI & Society, 39(4), 1891–1903. https://doi.org/10.1007/s00146-023-01640-1
Cappelen, H., Goldstein, S., Hawthorne, J. (2025). AI survival stories: A taxonomic analysis of AI existential risk. Philosophy of AI, 1(1), 1–19.
Carter, L., Liu, D. (2025). How was my performance? Exploring the role of anchoring bias in AI-assisted decision making. International Journal of Information Management, 82, 102875. URL: https://www.sciencedirect.com/science/article/pii/S0268401225000076 (дата обращения: 18.08.2025).
Chopra, S.R. (2025). Application Scenario of AI-Enabled Architectures in Next-Generation Wireless Networks. In: K. Arora, H. Sharma, A. Mahesh, (eds.). Artificial Intelligence and Machine Learning Algorithms for Engineering Applications. (pp. 194–197). Boca Raton: CRC Press.
Chun, K.P., Octavianti, T., Dogulu, N., Tyralis, H., Papacharalampous, G., Rowberry, R. et al. (2025). Transforming disaster risk reduction with AI and big data: Legal and interdisciplinary perspectives. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 15(2), e70011. URL: https://wires.onlinelibrary.wiley.com/doi/10.1002/widm.70011 (дата обращения: 18.08.2025).
Faheem, M.A. (2024). Ethical AI: Addressing bias, fairness, and accountability in autonomous decision-making systems. World Journal of Advanced Research and Reviews, 23(2), 1703–1711. https://doi.org/10.30574/wjarr.2024.23.2.2510
Fok, R., Weld, D.S. (2024). In search of verifiability: Explanations rarely enable complementary performance in AI‐advised decision making. AI Magazine, 45(3), 317–332. https://doi.org/10.1002/aaai.12182
Godefroid, M.E., Plattfaut, R., Niehaves, B. (2023). How to measure the status quo bias? A review of current literature. Management Review Quarterly, 73(4), 1667–1711. https://doi.org/10.1007/s11301-022-00283-8
Hanna, M.G., Pantanowitz, L., Jackson, B., Palmer, O., Visweswaran, S., Pantanowitz, J., Deebajah, M., Rashidi, H.H. (2025). Ethical and bias considerations in artificial intelligence/machine learning. Modern Pathology, 38(3), 100686. URL: https://www.modernpathology.org/article/S0893-3952(24)00266-7/fulltext (дата обращения: 18.08.2025).
Holzinger, A., Zatloukal, K., Müller, H. (2025). Is human oversight to AI systems still possible? New Biotechnology, 85, 59–62. https://doi.org/10.1016/j.nbt.2024.12.003
Howe, C.Q., Purves, D. (2005). The Müller-Lyer illusion explained by the statistics of image–source relationships. Proceedings of the National Academy of Sciences, 102(4), 1234–1239. https://doi.org/10.1073/pnas.0409314102
Kasirzadeh, A. (2024). Two types of AI existential risk: decisive and accumulative. Philosophical Studies, 182(7), 1975–2003. https://doi.org/10.1007/s11098-025-02301-3
Marchegiani, B. (2025). Anthropomorphism, False Beliefs, and Conversational AIs: How Chatbots Undermine Users’ Autonomy. Journal of Applied Philosophy, 42(5), 1399–1419. https://doi.org/10.1111/japp.70008
Pikhart, M., Klimova, B. (2025). A qualitative study on ethical issues related to the use of AI-driven technologies in foreign language learning. Scientific Reports, 15(1), 27945. URL: https://www.nature.com/articles/s41598-025-13741-6 (дата обращения: 06.08.2025).
Reinecke, M.G., Ting, F., Savulescu, J., Singh, I. (2025). The Double-Edged Sword of Anthropomorphism in LLMs. Proceedings, 114(1), 4. URL: https://www.mdpi.com/2504-3900/114/1/4 (дата обращения: 06.08.2025).
Saini, J., Choudhary, S., Walia, K. (2025). The Future of AI in Decision-Making: Replacing or Assisting Humans? International Journal of Sciences and Innovation Engineering, 2(5), 751–778. https://doi.org/10.70849/IJSCI
Samuelson, W., Zeckhauser, R. (1988). Status quo bias in decision making. Journal of Risk and Uncertainty, 1(1), 7–59. https://doi.org/10.1007/BF00055564
Zhou, W., Liu, F., Zheng, H., Zhao, R. (2025). Mitigating data bias and ensuring reliable evaluation of AI models with shortcut hull learning. Nature Communications, 16(1), 5513. URL: https://www.nature.com/articles/s41467-025-60801-6 (дата обращения: 05.02.2025).