РИСКИ ИСПОЛЬЗОВАНИЯ ИИ В СФЕРЕ ВЫСШЕГО ОБРАЗОВАНИЯ

Данилов Юрий Дмитриевич
Брестский государственный технический университет

Аннотация
В статье анализируются риски, связанные с применением платформ искусственного интеллекта при обучении студентов в высших учебных заведениях. В работе учтены материалы исследований авторитетных международных организаций а также личный преподавательский опыт использования ИИ в образовательной деятельности.

Ключевые слова: , , , ,


Рубрика: 13.00.00 ПЕДАГОГИЧЕСКИЕ НАУКИ

Библиографическая ссылка на статью:
Данилов Ю.Д. Риски использования ИИ в сфере высшего образования // Современные научные исследования и инновации. 2026. № 1 [Электронный ресурс]. URL: https://web.snauka.ru/issues/2026/01/104077 (дата обращения: 08.04.2026).

Современная система высшего образования переживает переломный момент: искусственный интеллект коренным образом меняет и характер обучения, и технологии преподавания, и методологию научных исследований. ChatGPT, Claude и многие другие системы уже повсеместно используются в повседневной университетской практике, что вызывает необходимость более осознанного и критического подход к их внедрению. Применение ИИ в форме автоматизированных систем принятия решений (ADM) или генеративного интеллекта (GenAI) самым существенным образом меняет традиционные формы обучения: они помогают студентам и преподавателям писать эссе, структурировать сложные исследовательские проекты и готовить учебные материалы. Однако какими бы привлекательными ни были эти новые возможности, они поднимают целый спектр актуальных вопросов, требующих незамедлительного разрешения.
Одним из них является парадокс мнимого нейтралитета данных от ИИ. Сегодня искусственный интеллект часто называют ключевой технологией будущего, способствующей инновациям и вообще всему общественному прогрессу. Однако при этом не учитывается, что в его основе лежат определенные данные, которые никогда не бывают нейтральными. Так, например, если обучение выстроено на основе некой исторической информации, то алгоритмы ИИ неизбежно будут воспроизводить социальные, духовно-культурные и экономические отношения, установленные вполне конкретными властными структурами. Тем самым вместо генерирования новых, справедливых решений, искусственный интеллект будет, как и прежде закреплять существующее положение дел. Таким способом он будет еще больше усиливать неравенство и дискриминацию в обществе, которое его создает. Целые социальные группы, в том числе женщины, представители этнических меньшинств, люди с ограниченными возможностями и те, кто находится в неблагополучном социально-экономическом положении, от этого пострадают больше всех. Недостаточная представленность различных слоев общества сформирует своеобразный порочный круг: необъективные данные приведут к получению недостоверных результатов в исследованиях, которые, в свою очередь, попадают в новые базы данных, влияющих на принимаемые решения.
Помимо отсутствия нейтральности в обучающих данных, возникает и ещё одна проблема: инструменты искусственного интеллекта также не являются независимыми технологиями. В подавляющем большинстве они отражают понимания, мировоззрения и ценности разработчиков, которые чаще всего игнорируют потребности и мнения иных социальных слоев и профессиональных групп общества. Это очевидно уже на основе одного примера. Согласно данным за 2024 год, в настоящее время женщины в сфере ИИ составляют лишь около 22 %, даже в регионах, известных своим стремлением к гендерному равенству, например, в Германии, доля женщин на должностях, связанных с искусственным интеллектом, одна из самых низких в Европе — всего 20,3% [1].
Важной проблемой применения ИИ в современных университетах является искажение результатов обучения. Сегодня она существует сразу на нескольких институциональных уровнях: при поступлении абитуриентов, при оценке знаний студентов, во время их академического консультирования или самостоятельной работы. Особенно высок риск при использовании систем искусственного интеллекта для анализа исторических данных, выявления тенденций и закономерностей, прогнозирования будущего. В этом аспекте широко известны негативные последствия опыта Франции, где на протяжении нескольких лет при распределении мест в университетах использовался алгоритм ИИ. Как оказалось, он был запрограммирован таким образом, что приводил к систематическому ущемлению прав абитуриентов даже по таким нейтральным критериям, как место жительства. В результате, поступающие из богатых районов получали неоправданные преференции по сравнению с выходцами из социально неблагополучных пригородов [2]. Таким образом, вместо того чтобы способствовать установлению и поддержанию справедливости, система приема в учебные заведения только усугубляла социальное неравенство. Это тем более парадоксально, xnо университеты – это учреждения, которые всегда гордятся своим критическим мышлением и передовыми социальными инновациями. Именно поэтому представляется критически важным чтобы перед внедрением каких-либо технических решений, основанных на ИИ, были найдены ответы на фундаментальные этические вопросы: какие системы следует использовать и каковы их преимущества, какие принципы справедливости, подотчётности и прозрачности должны лежать в основе их использования. Необходимо четко представлять какие минимальные правовые и этические стандарты должны по всем этим показателям будут соблюдаться. В противном случае образовательная сфера может столкнуться с серьезными рисками. Например, на индивидуальном уровне большинство широко известных сегодня ИИ-платформ воспроизводят заложенные в них обучающие данные, которые потом переносятся непосредственно в процесс преподавания, обучения и исследований. Особенно ярким примером этого являются большие языковые модели, которые чаще всего используются для поиска литературы. Так вот они, как правило, отдают предпочтение работам только наиболее признанных авторов, при этом ценные инновации перспективных молодых, но пока еще малоизвестных ученых и исследователей остаются вне поля зрения. Кроме того, такой дисбаланс усугубляется еще и тем фактом, что большинство таких ИИ-моделей построено на данных, в которых преобладают только англоязычные материалы. В результате на выходе получается крайне избирательный объём информации, что для обучающихся это чревато искажением процессов мышления, обучения, формирования знаний и навыков, в которых появится множество «слепых зон», которые так и останутся незамеченными из-за отсутствия критического осмысления.
Некритическое использование обучающих систем искусственного интеллекта также может привести к утрате студентами фундаментальных академических навыков, что уже стало вполне очевидным. Если основанные на нем платформы будут постоянно предоставлять обучающимся аргументы и результаты анализа, а они будут неограниченно принимать как результат решения поставленных перед ними учебных задач, аналитические способности будут также постоянно снижаться. Такие совершенно необходимые в учении и саморазвитии навыки, как выявление и оценка первоисточников, формулирование выводов и обобщений, критическое отношение к осмыслению информации, умения аргументированно доказывать и опровергать будут становиться невостребованными. Это принесет всему интеллектуальному развитию людей практически на всю жизнь. Безответственное, огульное насаждение ИИ создает риск его превращения в инструмент, существенно ограничивающий разнообразие академического дискурса, а, следовательно, способствующего усилению изоляции личности, дезавуирующего важнейшие принципы университетского образования, препятствующего развитию у студентов критического мышления.
Изложенные выше выводы достаточно убедительно подтверждаются результатами исследований Международного альянс Совета по цифровому образованию (Digital Education Council), в которых приняли участие представители 28 стран. 61% опрошенных преподавателей заявили, что используют в своей работе генеративный ИИ, что в целом соответствует российским показателям (по данным исследований Томского государственного университета). 75% респондентов завили, что применяют ИИ для создания учебных материалов, 58% – решения административных задач, 28% – для проверки студенческих работ на плагиат, 24% – для оценивания работ студентов. В тоже время, как раз у большинства студентов вызывает сильное беспокойство качество разработанных с помощью ИИ курсов [3].
В целом в DEC утверждают, что 32% преподавателей университетов обеспокоены возможным негативными последствиями применения искусственного интеллекта в обучении и работе, 25% вообще видят в нем больше рисков, чем пользы и столько же ее просто не видят. Главными рисками названы отсутствие способностей у студентов критически оценивать созданный ИИ контент и формирование сверхвысокого, ничем не оправданного доверия к искусственному интеллекту, вследствие чего они перестают учиться сами. Уже сейчас по мнению ряда экспертов утверждается мнение, что генеративный искусственный интеллект просто «убивает» память и фантазию [4]. Например, Нобелевский лауреат по физике профессор Сол Перлмуттер прямо заявляет, что «сгенерированные с помощью ChatGPT тексты не отражают необходимое для научной работы критическое мышление [5], без которого практически невозможно устанавливать достоверные корреляции между несвязанными явлениями. Еще шире рассматривает проблему российский ученый А. Лопатин, утверждая, что у студентов, которые бездумно применяют в своей работе нейросети и выдаваемые ими данные формируется «ложное ощущение простоты образования (которое – авт.) может вселить в них уверенность, что именно такое обучение является нормальным» [6]. Выводы специалиста подтверждаются и данными китайских исследователей, заявивших о том, что студенты постоянно использующие ИИ слишком расслабляются и прикладывают к обучению всё меньше и меньше умственных усилий.
В числе рисков, связанных с распространением ИИ в университетском образовании, важное место отводится и проблеме цифрового образования самих преподавателей. В многочисленных публикациях отмечается, что их подготовка существенно отстает от темпов развития самих платформ. В результате преподаватель вообще «выпадает» из образовательного процесса как его организатор, уступая место ИИ.
Сегодня для университетов использование искусственного интеллекта — это нечто большее, чем просто внедрение новых технологий, поэтому данный процесс требует продуманного подхода. В его основе лежит прозрачное и широкое информирование всех заинтересованных участников образовательного процесса о возможностях, ограничениях и рисках. Крайне важной задачей является повышение уровня медиаграмотности, чтобы сотрудники, студенты и преподаватели могли получить чёткое представление о том, как работает искусственный интеллект и где проходят границы его достоинств и недостатков. Не менее важным представляется разработка этических принципов, определяющих чёткие правила ответственного использования нейросетей в обучении. Таковыми могут быть:

  • обеспечение широкого информирования (включая создание учебных программ) о возможностях, ограничениях и рисках, связанных с использованием ИИ в образовательной сфере;
  • развитие критических и методологических компетенций у студентов, сотрудников и преподавателей, чтобы они могли грамотно оценивать содержание и целесообразность использования ИИ в учебном процессе;
  • всесторонний учет мнений всех участников образовательного процесса в решении вопросов внедрения и использования инструментов ИИ;
  • разработка методологических, правовых и этических принципов, устанавливающих чёткие правила ответственного использования искусственного интеллекта;
  • проведение постоянного анализа социальных последствий использования нейросетей в образовании с целью минимизации и предотвращения их негативных последствий (избирательности, предвзятости, дискриминации, системных искажений информации и т.д.).

Очевидно, что генеративный ИИ навсегда изменит систему высшего образования и этот процесс необратим. Поэтому главный вопрос заключается не в том, будет ли он широко использоваться, а в том, как он будет применяться непосредственно на практике. Представляется, что именно университеты должны стремиться стать первопроходцами в области критического и рефлексивного использования искусственного интеллекта. Но чтобы эта работа увенчалась успехом необходимо осознавать ограничения этих технологий, которые могут препятствовать формированию навыков критически и со знанием дела оценивать созданный им контент.
Наряду с этим необходимо постоянно анализировать этические последствия применения ИИ в обществе в целом. Только в этом случае университеты смогут выполнять свою роль образовательных учреждений, используя весь положительный потенциал генеративного ИИ, не игнорируя при этом связанные с ними риски, т.к. будущее высшего образования зависит от способности критически оценивать технологии, а не от слепого доверия им.


Библиографический список
  1. Лаццарони, R.M. & Pal, S. (2024) Недостающее звено искусственного интеллекта: гендерный разрыв в кадровом резерве. ВнутриРФ и ЕС. https://www.interface-eu .org/publications/ai-gender-gap (дата обращения: 08.01.2026).
  2. Мартини, М., Ботта, Дж., Нинк, Д., и Колейн, М. (2020). Automatisch erlaubt? Fünf Anwendungsfälle algorithmischer Systeme auf dem juristischen Prüfstand. Бертельсмann Stiftung. https://www.bertelsmann-stiftung.de/de/publikationen/publikation/did/automatisch-erlaubt (дата обращения: 11.01.2026).
  3. Может ли ИИ заменить преподавателя в вузе? Интервью о результатах серии экспериментов. https://skillbox.ru/media/education/mozhet-li-ii-zamenit-prepodavatelya-v-vuze-intervyu-o-rezultatah-serii-eksperimentov/?utm_source=media&utm_medium=link&utm_campaign=all_all_media_links_links_articles_all_all_skillbox. 1 ноября 2024 года. (дата обращения: 08.01.2026).
  4. AI Meets Academia: What Faculty Think/ Digital Education Council Global AI Faculty Survey 2025 https://26556596.fs1.hubspotusercontent-eu1.net/hubfs/26556596/DEC/Digital%20Education%20Council%20Global%20AI%20Faculty%20Survey%202025.pdf. 01.11.2025. (дата обращения: 10.01.2026).
  5. Нобелевский лауреат: эссе ChatGPT показывают студентам, как не надо думать https://skillbox.ru/media/education/nobelevskiy-laureat-esse-chatgpt-pokazyvayut-studentam-kak-ne-nado-dumat/?utm_source=media&utm_medium=link&utm_campaign=all_all_media_links_links_articles_all_all_skillbox 5 июл 2024) (дата обращения: 10.01.2026).
  6. А. Лопатин. Применение ChatGPT в образовании может породить поколение молодежи с искаженной картиной мира https://www.business-gazeta.ru/blog/664750  1 Марта 2025(дата обращения: 10.01.2026).


Все статьи автора «Данилов Юрий Дмитриевич»


© Если вы обнаружили нарушение авторских или смежных прав, пожалуйста, незамедлительно сообщите нам об этом по электронной почте.