Научный руководитель: Вильданов Алмаз Нафкатович
Старший преподаватель, Уфимский университет науки и технологий, Нефтекамский филиал
Эволюция искусственного интеллекта перешла из чисто технической плоскости в социально-правовую. Если раньше основной вызов заключался в том, как обучить модель, сегодня на первый план выходят вопросы на чем, с какими целями и в рамках каких ограничений это следует делать. Процесс обучения ИИ, от сбора данных до валидации результатов, становится фокусом критического анализа с точки зрения этики и права. Проблема смещения данных (bias), нарушения авторских прав на обучающие корпуса, отсутствия четких рамок ответственности за решения автономных систем — эти вызовы требуют системного осмысления. Данная статья ставит целью структурировать ключевые этико-правовые аспекты обучения ИИ, выделив три взаимосвязанных уровня: уровень данных, уровень алгоритма и уровень ответственности. Понимание этих аспектов — необходимое условие для разработки не только мощного, но и надежного, доверенного и социально приемлемого искусственного интеллекта.
Искусственный интеллект, претендующий на объективность, впитывает мир таким, каков он есть — со всеми его противоречиями, неравенством и правовыми коллизиями. Процесс его обучения, технически представляющий собой оптимизацию математических функций, на деле оказывается глубоко социальным и политическим актом. Каждый байт обучающих данных, каждый параметр модели несет в себе отпечаток тех решений — и упущений, — которые были сделаны людьми. В России, где рынок ИИ-решений к 2024 году, по оценкам «Сбербанка» и Аналитического центра при Правительстве РФ, может достичь 1 трлн рублей, эти вопросы из философских превращаются в остропрактические.
Российские разработчики ИИ сталкиваются с уникальным вызовом: создание конкурентоспособных моделей, обученных преимущественно на русскоязычных данных, которые, по оценкам, составляют менее 5% от общего объема текстов в интернете. Это создает риск «цифрового изоляционизма» — модель, недополучившая мирового контекста, может вырасти с ограниченным кругозором. Но проблема глубже. Как и глобально, ключевой этический риск — смещение (bias). Однако его природа в российском контексте специфична.
Если в США громкие скандалы связаны с расовым и гендерным bias, то в России на первый план могут выйти другие социальные и региональные перекосы. Например, модель для скоринга, обученная на данных крупнейших банков, может быть несправедлива к жителям малых городов или сельской местности, чьи финансовые паттерны отличаются от столичных. Система для автоматического анализа резюме, обученная на данных крупных корпораций, может неосознанно дискредитировать соискателей с опытом работы в госучреждениях или в «непрестижных» отраслях. Статистика, собранная в исследовании «HR-технологии 2023» от HeadHunter, указывает, что уже более 40% компаний в РФ так или иначе используют автоматизированный скрининг резюме, но лишь единицы проводят аудит этих систем на предмет предвзятости.
Правовая реакция на эти вызовы в России только формируется. В отличие от ЕС с его жестким GDPR, в России действует Федеральный закон «О персональных данных» (152-ФЗ). Он обеспечивает защиту, но фокус его — на безопасности хранения и обработки, а не на этике использования данных для обучения ИИ. Сбор обезличенных данных для ML-задач, который мог бы смягчить проблему bias, находится в серой зоне. Сравнительный анализ показывает: если европейский подход ставит во главу угла превентивную защиту прав человека (даже ценой усложнения разработки), а американский — инновации и «добросовестное использование», то российский регуляторный ландшафт тяготеет к технологическому суверенитету и безопасности. Национальная стратегия развития искусственного интеллекта до 2030 года делает акцент на создание отечественных решений и инфраструктуры данных, но вопросы алгоритмической справедливости прописаны в ней пока общими формулировками.
Самый горячий правовой фронт — интеллектуальная собственность. Российские генеративные модели, подобные Kandinsky или ruDALL-E, обучались на миллионах изображений из открытого Рунета. Юридический статус таких действий неясен. Статья 1274 Гражданского кодекса РФ о «свободном использовании произведения в информационных, научных, учебных или культурных целях» может быть растолкована широко, но не была создана с учетом машинного обучения. Прямых судебных прецедентов, аналогичных искам против Stability AI на Западе, в России пока нет. Однако риск для разработчиков велик: правообладатель, чьи работы были использованы для обучения без лицензии, может подать иск о нарушении исключительных прав. Это создает «холодный» эффект, сдерживающий разработку крупных моделей небольшими студиями.
Еще более сложен вопрос ответственности. Представим беспилотный автомобиль российской разработки, обученный на данных московского трафика, который причинил вред в регионе. Кто ответит? Производитель железа? Разработчик ИИ-алгоритма? Владелец данных (например, агрегатор карт)? По действующему Гражданскому кодексу РФ, ответственность за вред, причиненный товаром с недостатками, несет продавец или изготовитель (ст. 1095-1098 ГК РФ). Но ИИ — не статичный «товар», это динамичная система, чье поведение непредсказуемо. Текущее законодательство не знает понятия «цифровой агент». Сравнение с ЕС, где активно обсуждается Директива об ответственности за ИИ, предполагающая строгую ответственность операторов систем высокого риска, показывает, что Россия находится в начале этого пути. Пока единственный работающий механизм — это договорная ответственность и страхование, что явно недостаточно для массового внедрения.
Проблема усугубляется необъяснимостью сложных нейросетей. Если ИИ-система в госуслугах отказывает человеку в пособии, он имеет право на обоснование решения (ФЗ «Об организации предоставления государственных и муниципальных услуг»). Но как предоставить понятное человеку обоснование, если даже разработчики не всегда могут проследить логику модели? Этот разрыв между правом на информацию и технической возможностью ее предоставить — мина замедленного действия под доверие к любым автоматизированным госсервисам.
Цифры и реалии: российский ИИ между стратегией и практикой
Статистика рисует картину стремительного, но асимметричного роста. Согласно данным Национального центра развития искусственного интеллекта, к концу 2023 года в России было зарегистрировано свыше 1400 компаний, работающих в сфере ИИ. Бюджет национального проекта «Искусственный интеллект» составляет около 90 млрд рублей до 2024 года. Однако, по опросам Ассоциации больших данных, лишь 15% крупных предприятий внедрили ИИ-решения в основные процессы. Главные барьеры, которые они называют, — нехватка специалистов (67%) и неясность нормативно-правового регулирования (43%).
Эта неясность — ключевой тормоз. Бизнес и госорганы, готовые внедрять ИИ, не понимают границ дозволенного. Можно ли обучать модель на внутренних переписках сотрудников? Как учитывать требования 152-ФЗ при создании дата-сетов? Кто будет виноват в сбое? Пока регулятор дает точечные разъяснения (например, со стороны Роскомнадзора по обработке биометрии), но целостной правовой рамки, подобной ЕС AI Act, нет.
В России развитие этических и правовых норм для обучения ИИ происходит в непростой ситуации. С одной стороны, государство стремится к технологическому суверенитету, с другой – активно развивается коммерческий рынок, а законодательство отстает от стремительных изменений. В отличие от Запада, где акцент делается на расовых проблемах, в России этические риски связаны с региональным и социально-экономическим неравенством в данных. Правовые же проблемы сосредоточены вокруг устаревших норм авторского права и гражданской ответственности, которые не справляются с новыми технологиями. Россия может избежать западных ошибок, выстроив сбалансированное регулирование с самого начала. Однако для этого нужен открытый диалог всех заинтересованных сторон: разработчиков, юристов, этиков и регуляторов. Без него обучение ИИ в России рискует стать “черным ящиком” не только в техническом, но и в нормативном плане, с непредсказуемыми последствиями для всех.
Выводы
Развитие искусственного интеллекта окончательно перестало быть сугубо технологической гонкой и превратилось в масштабный социальный эксперимент, исход которого зависит от нашей способности найти баланс между инновациями и ценностями. Как показал анализ, этические и правовые аспекты не являются внешними ограничителями для обучения ИИ — они составляют его смысловой фундамент.
На современном этапе развития искусственного интеллекта наблюдается фундаментальное противоречие: стремление к созданию объективного и безопасного ИИ требует намеренного включения в его обучение спорных социальных конструктов, таких как раса, пол и уровень дохода, а также переосмысления устоявшихся правовых норм, включая авторское право и концепцию вины. Процесс обучения ИИ, по сути, становится зеркалом, отражающим системные противоречия, предрассудки и правовые лакуны, присущие нашему обществу, с пугающей ясностью.
При этом универсального решения не существует, о чем красноречиво свидетельствует радикальное расхождение регуляторных подходов. Европейский путь (GDPR, AI Act) жертвует скоростью развития ради превентивной защиты прав и прозрачности. Американская модель делает ставку на инновации и постфактумное урегулирование конфликтов через суды. Российский контекст, в свою очередь, демонстрирует третью траекторию, где на первый план выходят задачи технологического суверенитета и безопасности, что создает уникальные вызовы в виде цифровой изоляции данных и переосмысления классических правовых норм под давлением национальных стратегий.
Искусственный интеллект, обученный на наших данных, унаследует не только наши знания, но и наши конфликты. Задача сегодня — не просто обучить его отвечать на вопросы, а заложить в процесс обучения механизмы, которые заставят его задавать правильные вопросы о справедливости, ответственности и границах собственного воздействия.
