ISSN: 2073-2635
eISSN: 2949-270X
ISSN: 2073-2635
eISSN: 2949-270X
En Ru

О рисках когнитивных искажений использования систем искусственного интеллекта в образовательной деятельности вузов России

О рисках когнитивных искажений использования систем искусственного интеллекта в образовательной деятельности вузов России

Поступила: 19.09.2025

Принята к публикации: 23.12.2025

Дата публикации в журнале: 26.12.2025

Ключевые слова: риск-ориентированный подход; искусственный интеллект; методическое обеспечение; когнитивные функции; когнитивные искажения; образовательная деятельность; студенты; преподаватели

DOI: 10.55959/LPEJ-25-21

Доступно в on-line версии с: 26.12.2025

Для цитирования статьи

Яхваров Е.К., Афанасьев А.В., Аринушкина А.А. О рисках когнитивных искажений использования систем искусственного интеллекта в образовательной деятельности вузов России // Вестник Московского Университета. Серия 20. Педагогическое образование. 2025. № 4. С. 65-93

Номер 4, 2025

Аннотация

Актуальность. Внедрение в образовательную среду вузов России систем, созданных на основе технологий искусственного интеллекта (ИИ), формирует парадигму образования, которая потребует новых методологических подходов и педагогических приемов для полноценной реализации возможностей таких систем и избежания рисков, создаваемых этими технологиями.

Цель
. Цель исследования — формирование методического аппарата, позволяющего управлять рисками при использовании систем ИИ в образовательной деятельности вузов России.

Выборка
. Представляет собой курсантскую учебную группу из n = 20 человек, являющуюся малой независимой выборкой, которая сравнивается с гипотетической генеральной нормальной совокупностью, представляющей собой аналогичные группы из n = 20 в 40 вузах.

Методы
. Методологическую основу статьи составляет применение рискориентированного подхода к использованию систем ИИ в образовательной деятельности вуза.

Результаты
. Риск-ориентированный подход к созданию методического обеспечения использования систем ИИ в образовательной деятельности вузов России позволит создать методологическую основу для исследования возможностей ускорения процессов получения знаний, умений и навыков обучающимися и избежания возможных негативных эффектов, основанных на рисках «слепого доверия» к системам ИИ.

Выводы
. Использование ИИ в образовательной деятельности вузов России влечет за собой кроме позитивных аспектов ряд рисков. В этой связи применение систем ИИ должно сопровождаться совокупностью методических подходов, исключающих «слепое доверие» преподавателей и обучающихся к системам ИИ.

Литература

Булатов, А., Бертулис, А., Булатова, Н. (2007). Процессы локального усреднения в иллюзии Мюллера-Лайера. Сенсорные системы, 21(1), 10–18.

Ганчеренок, И.И., Горбачев, Н.Н. (2024). Искусственный интеллект в образовании: осознание противоречий. Научно-методическое обеспечение оценки качества образования, 2(20), 41–49.

Горбачева, Т.А. (2025). Искусственный интеллект: риски и проблемы внедрения в Российской Федерации. Инновационная экономика: информация, аналитика, прогнозы, (1), 96–105. https://10.47576/2949-1894.2025.1.1.014

Искусственный интеллект размером с компанию и роль CEO в его построении. (2021). McKinsey & Company, 13 октября 2021 г. URL: https://www.mckinsey.com/ru/our-insights/artificial-intelligence-the-size-of-a-company-and-the-role-... (дата обращения: 18.08.2025).

Канеман, Д., Тверски, А. (2015). Теория перспектив: анализ принятия решений в условиях риска. Экономика и математические методы, 51(1), 3–25.

Кант, И. (1907). Критика чистого разума. Санкт-Петербург: тип. М.М. Стасюлевича.

Кини, Р.Л., Райфа, Х. (1981). Принятие решений при многих критериях: предпочтения и замещения. Москва: Изд-во «Радио и связь».

Кирюшин, А.Н., Устинов, И.Ю., Петрий, П.В. (2025). Модели взаимодействия человека и искусственного интеллекта: содержание и их использование в военном деле. Военный академический журнал, 2(46), 139–147.

Кобринский, Б.А. (2024). Доверие к технологиям искусственного интеллекта. Искусственный интеллект и принятие решений, (3), 3–17. https://doi.org/10.14357/20718594240301

Мишуткин, И.В. (2025). Вместе мы — сила: сотрудничество Военного университета имени князя Александра Невского и Московского физико-технического института в области науки и образования. Военный академический журнал, 1(45), 6–8.

Намиот, Д.Е., Ильюшин, Е.А. (2025). Об оценке доверия к системам Искусственного интеллекта. International Journal of Open Information Technologies, 13(3), 75–90.

Сычев, А.А. (2023). Ценность доверия в эпоху искусственного интеллекта и новой этики: проблемы и вызовы. Социальные нормы и практики, (3), 64–78. https://doi.org/10.24412/2713-1033-2023-3-64-78

Шмит, В.Р. (2025). Чат-боты на основе искусственного интеллекта и психология: оценка фундаментальных знаний и практических навыков. Psychology and Cognitive Sciences, 151(2), 174–189. https://doi.org/10.32523/3080-1893-2025-151-2-175-189

Arinushkina, A.A. (ed.). (2025). Integration Strategies of Generative AI in Higher Education. Hershey: IGI Global Publ.

Arinushkina, A.A., Abramov, V.I., Mindzaeva, E.V. (2025). Generative AI as a Tool for Developing Critical Thinking in Higher Education. In: Integration Strategies of Generative AI in Higher Education (pp. 283–300). Hershey: IGI Global Publ.

Balakrishnan, J., Dwivedi, Y.K., Hughes, L., Boy, F. (2024). Enablers and inhibitors of AI-powered voice assistants: a dual-factor approach by integrating the status quo bias and technology acceptance model. Information Systems Frontiers, 26(3), 921–942. https://doi.org/10.1007/s10796-021-10203-y

Berber, A., Srećković, S. (2024). When something goes wrong: Who is responsible for errors in ML decision-making? AI & Society, 39(4), 1891–1903. https://doi.org/10.1007/s00146-023-01640-1

Cappelen, H., Goldstein, S., Hawthorne, J. (2025). AI survival stories: A taxonomic analysis of AI existential risk. Philosophy of AI, 1(1), 1–19.

Carter, L., Liu, D. (2025). How was my performance? Exploring the role of anchoring bias in AI-assisted decision making. International Journal of Information Management, 82, 102875. URL: https://www.sciencedirect.com/science/article/pii/S0268401225000076 (дата обращения: 18.08.2025).

Cheong, B.C. (2024). Transparency and accountability in AI systems: safeguarding wellbeing in the age of algorithmic decision-making. Frontiers in Human Dynamics, 6, 1421273. URL: https://www.frontiersin.org/journals/human-dynamics/articles/10.3389/fhumd.2024.1421273/full (дата обращения: 18.08.2025).

Chopra, S.R. (2025). Application Scenario of AI-Enabled Architectures in Next-Generation Wireless Networks. In: K. Arora, H. Sharma, A. Mahesh, (eds.). Artificial Intelligence and Machine Learning Algorithms for Engineering Applications. (pp. 194–197). Boca Raton: CRC Press.

Chun, K.P., Octavianti, T., Dogulu, N., Tyralis, H., Papacharalampous, G., Rowberry, R. et al. (2025). Transforming disaster risk reduction with AI and big data: Legal and interdisciplinary perspectives. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 15(2), e70011. URL: https://wires.onlinelibrary.wiley.com/doi/10.1002/widm.70011 (дата обращения: 18.08.2025).

Faheem, M.A. (2024). Ethical AI: Addressing bias, fairness, and accountability in autonomous decision-making systems. World Journal of Advanced Research and Reviews, 23(2), 1703–1711. https://doi.org/10.30574/wjarr.2024.23.2.2510

Fok, R., Weld, D.S. (2024). In search of verifiability: Explanations rarely enable complementary performance in AI‐advised decision making. AI Magazine, 45(3), 317–332. https://doi.org/10.1002/aaai.12182

Godefroid, M.E., Plattfaut, R., Niehaves, B. (2023). How to measure the status quo bias? A review of current literature. Management Review Quarterly, 73(4), 1667–1711. https://doi.org/10.1007/s11301-022-00283-8

Hanna, M.G., Pantanowitz, L., Jackson, B., Palmer, O., Visweswaran, S., Pantanowitz, J., Deebajah, M., Rashidi, H.H. (2025). Ethical and bias considerations in artificial intelligence/machine learning. Modern Pathology, 38(3), 100686. URL: https://www.modernpathology.org/article/S0893-3952(24)00266-7/fulltext (дата обращения: 18.08.2025).

Holzinger, A., Zatloukal, K., Müller, H. (2025). Is human oversight to AI systems still possible? New Biotechnology, 85, 59–62. https://doi.org/10.1016/j.nbt.2024.12.003

Howe, C.Q., Purves, D. (2005). The Müller-Lyer illusion explained by the statistics of image–source relationships. Proceedings of the National Academy of Sciences, 102(4), 1234–1239. https://doi.org/10.1073/pnas.0409314102

Kasirzadeh, A. (2024). Two types of AI existential risk: decisive and accumulative. Philosophical Studies, 182(7), 1975–2003. https://doi.org/10.1007/s11098-025-02301-3

Marchegiani, B. (2025). Anthropomorphism, False Beliefs, and Conversational AIs: How Chatbots Undermine Users’ Autonomy. Journal of Applied Philosophy, 42(5), 1399–1419. https://doi.org/10.1111/japp.70008

Murikah, W., Nthenge, J.K., Musyoka, F.M. (2024). Bias and ethics of AI systems applied in auditing — A systematic review. Scientific African, 25(5), e02281. URL: https://www.sciencedirect.com/science/article/pii/S2468227624002266?via%3Dihub (дата обращения: 18.08.2025).

Pikhart, M., Klimova, B. (2025). A qualitative study on ethical issues related to the use of AI-driven technologies in foreign language learning. Scientific Reports, 15(1), 27945. URL: https://www.nature.com/articles/s41598-025-13741-6 (дата обращения: 06.08.2025).

Planning for AGI and beyond. (2023). Open AI, 24 февраля, 2023 г. URL: https://openai.com/index/planning-for-agi-and-beyond/ (дата обращения: 15.03.2025).

Reinecke, M.G., Ting, F., Savulescu, J., Singh, I. (2025). The Double-Edged Sword of Anthropomorphism in LLMs. Proceedings, 114(1), 4. URL: https://www.mdpi.com/2504-3900/114/1/4 (дата обращения: 06.08.2025).

Saini, J., Choudhary, S., Walia, K. (2025). The Future of AI in Decision-Making: Replacing or Assisting Humans? International Journal of Sciences and Innovation Engineering, 2(5), 751–778. https://doi.org/10.70849/IJSCI

Samuelson, W., Zeckhauser, R. (1988). Status quo bias in decision making. Journal of Risk and Uncertainty, 1(1), 7–59. https://doi.org/10.1007/BF00055564

Shanahan, M., McDonell, K., Reynolds, L. (2023). Role play with large language models. Nature, 623, 493–498. https://doi.org/10.1038/s41586-023-06647-8

The outlook for global growth in 2015. (2015). McKinsey & Company, 1 марта 2021 г. URL: https://www.mckinsey.com/capabilities/strategy-and-corporate-finance/our-insights/the-outlook-for-gl... (дата обращения: 05.02.2025).

Zhou, W., Liu, F., Zheng, H., Zhao, R. (2025). Mitigating data bias and ensuring reliable evaluation of AI models with shortcut hull learning. Nature Communications, 16(1), 5513. URL: https://www.nature.com/articles/s41467-025-60801-6 (дата обращения: 05.02.2025).