<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Электронный научно-практический журнал «Современные научные исследования и инновации» &#187; Иксанов Алмаз Рифович</title>
	<atom:link href="http://web.snauka.ru/issues/author/almaz_iksanov/feed" rel="self" type="application/rss+xml" />
	<link>https://web.snauka.ru</link>
	<description></description>
	<lastBuildDate>Fri, 17 Apr 2026 07:29:22 +0000</lastBuildDate>
	<language>ru</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=3.2.1</generator>
		<item>
		<title>Этические и правовые аспекты обучения искусственного интеллекта</title>
		<link>https://web.snauka.ru/issues/2025/12/104010</link>
		<comments>https://web.snauka.ru/issues/2025/12/104010#comments</comments>
		<pubDate>Sat, 20 Dec 2025 16:41:42 +0000</pubDate>
		<dc:creator>Иксанов Алмаз Рифович</dc:creator>
				<category><![CDATA[05.00.00 ТЕХНИЧЕСКИЕ НАУКИ]]></category>
		<category><![CDATA[GDPR]]></category>
		<category><![CDATA[алгоритмическая справедливость]]></category>
		<category><![CDATA[ответственность ИИ]]></category>
		<category><![CDATA[регулирование ИИ]]></category>
		<category><![CDATA[смещение в данных]]></category>
		<category><![CDATA[транcпарентность]]></category>
		<category><![CDATA[этика искусственного интеллекта]]></category>

		<guid isPermaLink="false">https://web.snauka.ru/issues/2025/12/104010</guid>
		<description><![CDATA[Научный руководитель: Вильданов Алмаз Нафкатович Старший преподаватель, Уфимский университет науки и технологий, Нефтекамский филиал Эволюция искусственного интеллекта перешла из чисто технической плоскости в социально-правовую. Если раньше основной вызов заключался в том, как обучить модель, сегодня на первый план выходят вопросы на чем, с какими целями и в рамках каких ограничений это следует делать. Процесс обучения ИИ, от сбора данных до валидации результатов, становится фокусом [...]]]></description>
			<content:encoded><![CDATA[<p align="center"><em>Научный руководитель: Вильданов Алмаз Нафкатович</em><br />
<em>Старший преподаватель, </em><em>Уфимский университет науки и технологий, Нефтекамский филиал</em></p>
<p>Эволюция искусственного интеллекта перешла из чисто технической плоскости в социально-правовую. Если раньше основной вызов заключался в том, как обучить модель, сегодня на первый план выходят вопросы на чем, с какими целями и в рамках каких ограничений это следует делать. Процесс обучения ИИ, от сбора данных до валидации результатов, становится фокусом критического анализа с точки зрения этики и права. Проблема смещения данных (bias), нарушения авторских прав на обучающие корпуса, отсутствия четких рамок ответственности за решения автономных систем — эти вызовы требуют системного осмысления. Данная статья ставит целью структурировать ключевые этико-правовые аспекты обучения ИИ, выделив три взаимосвязанных уровня: уровень данных, уровень алгоритма и уровень ответственности. Понимание этих аспектов — необходимое условие для разработки не только мощного, но и надежного, доверенного и социально приемлемого искусственного интеллекта.</p>
<p>Искусственный интеллект, претендующий на объективность, впитывает мир таким, каков он есть — со всеми его противоречиями, неравенством и правовыми коллизиями. Процесс его обучения, технически представляющий собой оптимизацию математических функций, на деле оказывается глубоко социальным и политическим актом. Каждый байт обучающих данных, каждый параметр модели несет в себе отпечаток тех решений — и упущений, — которые были сделаны людьми. В России, где рынок ИИ-решений к 2024 году, по оценкам «Сбербанка» и Аналитического центра при Правительстве РФ, может достичь 1 трлн рублей, эти вопросы из философских превращаются в остропрактические.</p>
<p>Российские разработчики ИИ сталкиваются с уникальным вызовом: создание конкурентоспособных моделей, обученных преимущественно на русскоязычных данных, которые, по оценкам, составляют менее 5% от общего объема текстов в интернете. Это создает риск «цифрового изоляционизма» — модель, недополучившая мирового контекста, может вырасти с ограниченным кругозором. Но проблема глубже. Как и глобально, ключевой этический риск — смещение (bias). Однако его природа в российском контексте специфична.</p>
<p>Если в США громкие скандалы связаны с расовым и гендерным bias, то в России на первый план могут выйти другие социальные и региональные перекосы. Например, модель для скоринга, обученная на данных крупнейших банков, может быть несправедлива к жителям малых городов или сельской местности, чьи финансовые паттерны отличаются от столичных. Система для автоматического анализа резюме, обученная на данных крупных корпораций, может неосознанно дискредитировать соискателей с опытом работы в госучреждениях или в «непрестижных» отраслях. Статистика, собранная в исследовании «HR-технологии 2023» от HeadHunter, указывает, что уже более 40% компаний в РФ так или иначе используют автоматизированный скрининг резюме, но лишь единицы проводят аудит этих систем на предмет предвзятости.</p>
<p>Правовая реакция на эти вызовы в России только формируется. В отличие от ЕС с его жестким GDPR, в России действует Федеральный закон «О персональных данных» (152-ФЗ). Он обеспечивает защиту, но фокус его — на безопасности хранения и обработки, а не на этике использования данных для обучения ИИ. Сбор обезличенных данных для ML-задач, который мог бы смягчить проблему bias, находится в серой зоне. Сравнительный анализ показывает: если европейский подход ставит во главу угла превентивную защиту прав человека (даже ценой усложнения разработки), а американский — инновации и «добросовестное использование», то российский регуляторный ландшафт тяготеет к технологическому суверенитету и безопасности. Национальная стратегия развития искусственного интеллекта до 2030 года делает акцент на создание отечественных решений и инфраструктуры данных, но вопросы алгоритмической справедливости прописаны в ней пока общими формулировками.</p>
<p>Самый горячий правовой фронт — интеллектуальная собственность. Российские генеративные модели, подобные Kandinsky или ruDALL-E, обучались на миллионах изображений из открытого Рунета. Юридический статус таких действий неясен. Статья 1274 Гражданского кодекса РФ о «свободном использовании произведения в информационных, научных, учебных или культурных целях» может быть растолкована широко, но не была создана с учетом машинного обучения. Прямых судебных прецедентов, аналогичных искам против Stability AI на Западе, в России пока нет. Однако риск для разработчиков велик: правообладатель, чьи работы были использованы для обучения без лицензии, может подать иск о нарушении исключительных прав. Это создает «холодный» эффект, сдерживающий разработку крупных моделей небольшими студиями.</p>
<p>Еще более сложен вопрос ответственности. Представим беспилотный автомобиль российской разработки, обученный на данных московского трафика, который причинил вред в регионе. Кто ответит? Производитель железа? Разработчик ИИ-алгоритма? Владелец данных (например, агрегатор карт)? По действующему Гражданскому кодексу РФ, ответственность за вред, причиненный товаром с недостатками, несет продавец или изготовитель (ст. 1095-1098 ГК РФ). Но ИИ — не статичный «товар», это динамичная система, чье поведение непредсказуемо. Текущее законодательство не знает понятия «цифровой агент». Сравнение с ЕС, где активно обсуждается Директива об ответственности за ИИ, предполагающая строгую ответственность операторов систем высокого риска, показывает, что Россия находится в начале этого пути. Пока единственный работающий механизм — это договорная ответственность и страхование, что явно недостаточно для массового внедрения.</p>
<p>Проблема усугубляется необъяснимостью сложных нейросетей. Если ИИ-система в госуслугах отказывает человеку в пособии, он имеет право на обоснование решения (ФЗ «Об организации предоставления государственных и муниципальных услуг»). Но как предоставить понятное человеку обоснование, если даже разработчики не всегда могут проследить логику модели? Этот разрыв между правом на информацию и технической возможностью ее предоставить — мина замедленного действия под доверие к любым автоматизированным госсервисам.</p>
<p><strong>Цифры и реалии: российский ИИ между стратегией и практикой</strong></p>
<p>Статистика рисует картину стремительного, но асимметричного роста. Согласно данным Национального центра развития искусственного интеллекта, к концу 2023 года в России было зарегистрировано свыше 1400 компаний, работающих в сфере ИИ. Бюджет национального проекта «Искусственный интеллект» составляет около 90 млрд рублей до 2024 года. Однако, по опросам Ассоциации больших данных, лишь 15% крупных предприятий внедрили ИИ-решения в основные процессы. Главные барьеры, которые они называют, — нехватка специалистов (67%) и неясность нормативно-правового регулирования (43%).</p>
<p>Эта неясность — ключевой тормоз. Бизнес и госорганы, готовые внедрять ИИ, не понимают границ дозволенного. Можно ли обучать модель на внутренних переписках сотрудников? Как учитывать требования 152-ФЗ при создании дата-сетов? Кто будет виноват в сбое? Пока регулятор дает точечные разъяснения (например, со стороны Роскомнадзора по обработке биометрии), но целостной правовой рамки, подобной ЕС AI Act, нет.</p>
<p>В России развитие этических и правовых норм для обучения ИИ происходит в непростой ситуации. С одной стороны, государство стремится к технологическому суверенитету, с другой – активно развивается коммерческий рынок, а законодательство отстает от стремительных изменений. В отличие от Запада, где акцент делается на расовых проблемах, в России этические риски связаны с региональным и социально-экономическим неравенством в данных. Правовые же проблемы сосредоточены вокруг устаревших норм авторского права и гражданской ответственности, которые не справляются с новыми технологиями. Россия может избежать западных ошибок, выстроив сбалансированное регулирование с самого начала. Однако для этого нужен открытый диалог всех заинтересованных сторон: разработчиков, юристов, этиков и регуляторов. Без него обучение ИИ в России рискует стать &#8220;черным ящиком&#8221; не только в техническом, но и в нормативном плане, с непредсказуемыми последствиями для всех.</p>
<p><strong>Выводы</strong></p>
<p>Развитие искусственного интеллекта окончательно перестало быть сугубо технологической гонкой и превратилось в масштабный социальный эксперимент, исход которого зависит от нашей способности найти баланс между инновациями и ценностями. Как показал анализ, этические и правовые аспекты не являются внешними ограничителями для обучения ИИ — они составляют его смысловой фундамент.</p>
<p>На современном этапе развития искусственного интеллекта наблюдается фундаментальное противоречие: стремление к созданию объективного и безопасного ИИ требует намеренного включения в его обучение спорных социальных конструктов, таких как раса, пол и уровень дохода, а также переосмысления устоявшихся правовых норм, включая авторское право и концепцию вины. Процесс обучения ИИ, по сути, становится зеркалом, отражающим системные противоречия, предрассудки и правовые лакуны, присущие нашему обществу, с пугающей ясностью.</p>
<p>При этом универсального решения не существует, о чем красноречиво свидетельствует радикальное расхождение регуляторных подходов. Европейский путь (GDPR, AI Act) жертвует скоростью развития ради превентивной защиты прав и прозрачности. Американская модель делает ставку на инновации и постфактумное урегулирование конфликтов через суды. Российский контекст, в свою очередь, демонстрирует третью траекторию, где на первый план выходят задачи технологического суверенитета и безопасности, что создает уникальные вызовы в виде цифровой изоляции данных и переосмысления классических правовых норм под давлением национальных стратегий.</p>
<p>Искусственный интеллект, обученный на наших данных, унаследует не только наши знания, но и наши конфликты. Задача сегодня — не просто обучить его отвечать на вопросы, а заложить в процесс обучения механизмы, которые заставят его задавать правильные вопросы о справедливости, ответственности и границах собственного воздействия.</p>
]]></content:encoded>
			<wfw:commentRss>https://web.snauka.ru/issues/2025/12/104010/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
