<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Электронный научно-практический журнал «Современные научные исследования и инновации» &#187; GDPR</title>
	<atom:link href="http://web.snauka.ru/issues/tag/gdpr/feed" rel="self" type="application/rss+xml" />
	<link>https://web.snauka.ru</link>
	<description></description>
	<lastBuildDate>Fri, 17 Apr 2026 07:29:22 +0000</lastBuildDate>
	<language>ru</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=3.2.1</generator>
		<item>
		<title>Анализ приложения Snapchat</title>
		<link>https://web.snauka.ru/issues/2020/06/92538</link>
		<comments>https://web.snauka.ru/issues/2020/06/92538#comments</comments>
		<pubDate>Thu, 04 Jun 2020 08:07:45 +0000</pubDate>
		<dc:creator>Волокитина Татьяна Сергеевна</dc:creator>
				<category><![CDATA[05.00.00 ТЕХНИЧЕСКИЕ НАУКИ]]></category>
		<category><![CDATA[GDPR]]></category>
		<category><![CDATA[Snapchat]]></category>

		<guid isPermaLink="false">https://web.snauka.ru/issues/2020/06/92538</guid>
		<description><![CDATA[Американская компания Snap сообщила что она соответствует принципам Общего регулирования защиты данных (GDPR) ЕС. GDPR был принят в 2016 году и вступил в силу 25 мая 2018 в 27 странах Европейского союза. Ключевыми принципами GDPR являются: Законность, справедливость и прозрачность — должны быть легальные основания в рамках GDPR для сбора и использования данных, ненарушение любых законов, [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: left;" align="right">Американская компания Snap сообщила что она соответствует принципам Общего регулирования защиты данных (GDPR) ЕС.</p>
<p>GDPR был принят в 2016 году и вступил в силу 25 мая 2018 в 27 странах Европейского союза.</p>
<p>Ключевыми принципами GDPR являются:</p>
<ul>
<li>Законность, справедливость и прозрачность — должны быть легальные основания в рамках GDPR для сбора и использования данных, ненарушение любых законов, открытость, честность от начала и до конца об использовании персональных данных;</li>
<li>Ограничение целью — обработка должна сводиться к тому, что было заявлено субъекту данных. Все конкретные задачи должны быть закреплены в политике приватности и должны чётко соблюдаться;</li>
<li>Минимизация данных — использование адекватного количества данных для выполнения поставленных целей ограниченных только необходимым количеством;</li>
<li>Точность — персональные данные должны быть точными и не должны вводить в заблуждение; исправление неправильных;</li>
<li>Ограничение хранения данных — не хранить данные дольше чем нужно, периодически проводить аудит данных и удалять неиспользуемые;</li>
<li>Целостность и конфиденциальность/безопасность — хранить данные в безопасном месте и уделять достаточное внимание сохранности данных;</li>
<li>Подотчётность — ответственность за обработку персональных данных и выполнение всех остальных принципов GDPR включая записи о конфиденциальности; защите, использовании, проверки данных; назначении должностного лица по защите данных</li>
</ul>
<p>В связи с тем, что Snapchat является американской компанией,  ей нет необходимости соблюдать закон, принятый в ЕС, и если она хочет иметь возможность работать в ЕС, ей необходимо соблюдать требования GDPR. Snap заявил, что команда юристов по вопросам конфиденциальности, работают в тесном сотрудничестве с командами, которые разрабатывают новые функции, чтобы соответствовать GDPR. Эта команда тщательно рассматривает вопросы , которые относятся к тому, как Snapchatters просматривают, получают доступ и осуществляют права на свои данные; как долго компания хранит пользовательские данные; как минимизируется объем собираемых данных и обеспечивается  сбор данных для использования по назначению.</p>
<p>Компания пояснила, что использует данные о местоположении для фильтров, а не в рекламных целях. Тем не менее, функция Snap Map приложения позволяет пользователям видеть, где находятся их друзья на карте. Конечно, эту функцию можно отключить, но Snap Map выглядит как функция, противоположная конфиденциальности. Snap также недавно переписал условия в своем Центре конфиденциальности, чтобы пользователям было проще читать и понимать условия приложения.</p>
<p>В июне 2017 Snapchat представил <a href="https://translate.google.com/translate?hl=ru&amp;prev=_t&amp;sl=auto&amp;tl=ru&amp;u=https://www.theverge.com/2017/6/21/15846358/snapchat-snap-map-location-sharing-feature-announced">Snap Map</a>, функцию подписки, которая позволяет вам поделиться своим местоположением с друзьями на карте.</p>
<p>Но то, что Snapchat не говорит в приложении, что если вы не будете осторожны, Snap Map будет сообщать ваше точное местоположение кому-либо из вашего списка друзей каждый раз, когда вы открываете приложение.</p>
<p>Хотя в приложении упоминается, что вы делитесь своим местоположением, неясно, что именно это означает. Пользователи могут не понимать, что Snap публикует ваше местоположение на Snap Map каждый раз, когда вы открываете приложение. Не только когда вы делитесь снимками в истории.</p>
<p>Поскольку Snap Map точно показывает, где вы находитесь, каждый раз, когда вы открываете приложение, существует ряд опасных сценариев, которые могут иметь место, если пользователь даже не публикует Snap-историю.</p>
<p>При тщательном анализе Snap Map было выявлено:</p>
<ul>
<li>Местоположение будет обновляться каждый раз, когда открывается приложение Snapchat .</li>
<li>Если Snapchatter решит поделиться своим местоположением со всеми своими друзьями, приложение будет периодически напоминать им об этом выборе, чтобы быть уверенным, что им все еще это удобно.</li>
<li>Только общие друзья могут видеть друг друга на карте.</li>
<li>Snapchat удалит точные данные о местоположении через короткий промежуток времени. Некоторые более общие данные о местоположении могут сохраняться немного дольше, но компания утверждает, что также подлежит регулярному удалению.</li>
<li>Если вы нажмете на своего друга, вы увидите, когда его местоположение было обновлено. Их местоположение отражает, где они в последний раз открывали Snapchat .</li>
<li>Местоположение друга останется на карте на срок до 8 часов, если он не откроет приложение снова, что приведет к обновлению его местоположения. Если прошло более 8 часов, то их местоположение полностью исчезнет с карты.</li>
</ul>
<p>Snapchat разработал дополнительные права на данные в соответствии с GDPR.</p>
<p><em> Прозрачность</em>. заключается в прозрачной информированности пользователей о том, как и почему Snapchat использует их данные, как их защищает, как и почему обмениваются ими, и какой у них есть контроль над ними.</p>
<p><em>Доступ и мобильность</em>: существует инструмент самообслуживания, который позволяет  загружать свои личные данные.</p>
<p><em> Удаление</em>: Большая часть контента удаляется автоматически есть возможность для пользователей удалить аккаунт и свои данные.</p>
<p><em>Исправление </em>: Большую часть информации, можно исправить на вкладке их настроек в приложении.</p>
<p>Snap требует, чтобы третьи стороны, которые обрабатывают личные данные от их имени, подписывали соглашения об обработке данных, которые соответствуют GDPR, и они подписывают аналогичные соглашения, когда обрабатывают личные данные от имени рекламодателей и других деловых партнеров или клиентов. Когда Snap передает личные данные европейских лиц за пределы Европейского Союза, используется один из утвержденных Европейской комиссией механизмов передачи.</p>
<p>Когда данные клиентов передаются от рекламодателей в странах, где применяется GDPR, мы действуем в качестве обработчика данных от имени рекламодателя, который является контроллером данных.  Чтобы упростить этот процесс, Snap предоставляет стандартное соглашение об обработке данных, совместимое с GDPR, в рамках бизнес-условий рекламодателя с переходом по клику. <strong> </strong></p>
<p>Snap может полагаться на одно из нескольких правовых оснований, изложенных в GDPR, для обработки личных данных пользователя, включая законные интересы или согласие. Когда речь идет об обработке на основе согласия, GDPR вводит новое требование относительно согласия родителей на обработку персональных данных лиц моложе 16 лет. Государства-члены могут снизить этот возраст до 13 лет. В той степени, в которой Snap полагается на согласие на обработку Личные данные пользователей в возрасте от 13 до 16 лет, необходимо согласие данное кем-то, кто несет родительскую ответственность и при необходимости свести к минимуму дальнейший сбор данных.</p>
]]></content:encoded>
			<wfw:commentRss>https://web.snauka.ru/issues/2020/06/92538/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Этические и правовые аспекты обучения искусственного интеллекта</title>
		<link>https://web.snauka.ru/issues/2025/12/104010</link>
		<comments>https://web.snauka.ru/issues/2025/12/104010#comments</comments>
		<pubDate>Sat, 20 Dec 2025 16:41:42 +0000</pubDate>
		<dc:creator>Иксанов Алмаз Рифович</dc:creator>
				<category><![CDATA[05.00.00 ТЕХНИЧЕСКИЕ НАУКИ]]></category>
		<category><![CDATA[GDPR]]></category>
		<category><![CDATA[алгоритмическая справедливость]]></category>
		<category><![CDATA[ответственность ИИ]]></category>
		<category><![CDATA[регулирование ИИ]]></category>
		<category><![CDATA[смещение в данных]]></category>
		<category><![CDATA[транcпарентность]]></category>
		<category><![CDATA[этика искусственного интеллекта]]></category>

		<guid isPermaLink="false">https://web.snauka.ru/issues/2025/12/104010</guid>
		<description><![CDATA[Научный руководитель: Вильданов Алмаз Нафкатович Старший преподаватель, Уфимский университет науки и технологий, Нефтекамский филиал Эволюция искусственного интеллекта перешла из чисто технической плоскости в социально-правовую. Если раньше основной вызов заключался в том, как обучить модель, сегодня на первый план выходят вопросы на чем, с какими целями и в рамках каких ограничений это следует делать. Процесс обучения ИИ, от сбора данных до валидации результатов, становится фокусом [...]]]></description>
			<content:encoded><![CDATA[<p align="center"><em>Научный руководитель: Вильданов Алмаз Нафкатович</em><br />
<em>Старший преподаватель, </em><em>Уфимский университет науки и технологий, Нефтекамский филиал</em></p>
<p>Эволюция искусственного интеллекта перешла из чисто технической плоскости в социально-правовую. Если раньше основной вызов заключался в том, как обучить модель, сегодня на первый план выходят вопросы на чем, с какими целями и в рамках каких ограничений это следует делать. Процесс обучения ИИ, от сбора данных до валидации результатов, становится фокусом критического анализа с точки зрения этики и права. Проблема смещения данных (bias), нарушения авторских прав на обучающие корпуса, отсутствия четких рамок ответственности за решения автономных систем — эти вызовы требуют системного осмысления. Данная статья ставит целью структурировать ключевые этико-правовые аспекты обучения ИИ, выделив три взаимосвязанных уровня: уровень данных, уровень алгоритма и уровень ответственности. Понимание этих аспектов — необходимое условие для разработки не только мощного, но и надежного, доверенного и социально приемлемого искусственного интеллекта.</p>
<p>Искусственный интеллект, претендующий на объективность, впитывает мир таким, каков он есть — со всеми его противоречиями, неравенством и правовыми коллизиями. Процесс его обучения, технически представляющий собой оптимизацию математических функций, на деле оказывается глубоко социальным и политическим актом. Каждый байт обучающих данных, каждый параметр модели несет в себе отпечаток тех решений — и упущений, — которые были сделаны людьми. В России, где рынок ИИ-решений к 2024 году, по оценкам «Сбербанка» и Аналитического центра при Правительстве РФ, может достичь 1 трлн рублей, эти вопросы из философских превращаются в остропрактические.</p>
<p>Российские разработчики ИИ сталкиваются с уникальным вызовом: создание конкурентоспособных моделей, обученных преимущественно на русскоязычных данных, которые, по оценкам, составляют менее 5% от общего объема текстов в интернете. Это создает риск «цифрового изоляционизма» — модель, недополучившая мирового контекста, может вырасти с ограниченным кругозором. Но проблема глубже. Как и глобально, ключевой этический риск — смещение (bias). Однако его природа в российском контексте специфична.</p>
<p>Если в США громкие скандалы связаны с расовым и гендерным bias, то в России на первый план могут выйти другие социальные и региональные перекосы. Например, модель для скоринга, обученная на данных крупнейших банков, может быть несправедлива к жителям малых городов или сельской местности, чьи финансовые паттерны отличаются от столичных. Система для автоматического анализа резюме, обученная на данных крупных корпораций, может неосознанно дискредитировать соискателей с опытом работы в госучреждениях или в «непрестижных» отраслях. Статистика, собранная в исследовании «HR-технологии 2023» от HeadHunter, указывает, что уже более 40% компаний в РФ так или иначе используют автоматизированный скрининг резюме, но лишь единицы проводят аудит этих систем на предмет предвзятости.</p>
<p>Правовая реакция на эти вызовы в России только формируется. В отличие от ЕС с его жестким GDPR, в России действует Федеральный закон «О персональных данных» (152-ФЗ). Он обеспечивает защиту, но фокус его — на безопасности хранения и обработки, а не на этике использования данных для обучения ИИ. Сбор обезличенных данных для ML-задач, который мог бы смягчить проблему bias, находится в серой зоне. Сравнительный анализ показывает: если европейский подход ставит во главу угла превентивную защиту прав человека (даже ценой усложнения разработки), а американский — инновации и «добросовестное использование», то российский регуляторный ландшафт тяготеет к технологическому суверенитету и безопасности. Национальная стратегия развития искусственного интеллекта до 2030 года делает акцент на создание отечественных решений и инфраструктуры данных, но вопросы алгоритмической справедливости прописаны в ней пока общими формулировками.</p>
<p>Самый горячий правовой фронт — интеллектуальная собственность. Российские генеративные модели, подобные Kandinsky или ruDALL-E, обучались на миллионах изображений из открытого Рунета. Юридический статус таких действий неясен. Статья 1274 Гражданского кодекса РФ о «свободном использовании произведения в информационных, научных, учебных или культурных целях» может быть растолкована широко, но не была создана с учетом машинного обучения. Прямых судебных прецедентов, аналогичных искам против Stability AI на Западе, в России пока нет. Однако риск для разработчиков велик: правообладатель, чьи работы были использованы для обучения без лицензии, может подать иск о нарушении исключительных прав. Это создает «холодный» эффект, сдерживающий разработку крупных моделей небольшими студиями.</p>
<p>Еще более сложен вопрос ответственности. Представим беспилотный автомобиль российской разработки, обученный на данных московского трафика, который причинил вред в регионе. Кто ответит? Производитель железа? Разработчик ИИ-алгоритма? Владелец данных (например, агрегатор карт)? По действующему Гражданскому кодексу РФ, ответственность за вред, причиненный товаром с недостатками, несет продавец или изготовитель (ст. 1095-1098 ГК РФ). Но ИИ — не статичный «товар», это динамичная система, чье поведение непредсказуемо. Текущее законодательство не знает понятия «цифровой агент». Сравнение с ЕС, где активно обсуждается Директива об ответственности за ИИ, предполагающая строгую ответственность операторов систем высокого риска, показывает, что Россия находится в начале этого пути. Пока единственный работающий механизм — это договорная ответственность и страхование, что явно недостаточно для массового внедрения.</p>
<p>Проблема усугубляется необъяснимостью сложных нейросетей. Если ИИ-система в госуслугах отказывает человеку в пособии, он имеет право на обоснование решения (ФЗ «Об организации предоставления государственных и муниципальных услуг»). Но как предоставить понятное человеку обоснование, если даже разработчики не всегда могут проследить логику модели? Этот разрыв между правом на информацию и технической возможностью ее предоставить — мина замедленного действия под доверие к любым автоматизированным госсервисам.</p>
<p><strong>Цифры и реалии: российский ИИ между стратегией и практикой</strong></p>
<p>Статистика рисует картину стремительного, но асимметричного роста. Согласно данным Национального центра развития искусственного интеллекта, к концу 2023 года в России было зарегистрировано свыше 1400 компаний, работающих в сфере ИИ. Бюджет национального проекта «Искусственный интеллект» составляет около 90 млрд рублей до 2024 года. Однако, по опросам Ассоциации больших данных, лишь 15% крупных предприятий внедрили ИИ-решения в основные процессы. Главные барьеры, которые они называют, — нехватка специалистов (67%) и неясность нормативно-правового регулирования (43%).</p>
<p>Эта неясность — ключевой тормоз. Бизнес и госорганы, готовые внедрять ИИ, не понимают границ дозволенного. Можно ли обучать модель на внутренних переписках сотрудников? Как учитывать требования 152-ФЗ при создании дата-сетов? Кто будет виноват в сбое? Пока регулятор дает точечные разъяснения (например, со стороны Роскомнадзора по обработке биометрии), но целостной правовой рамки, подобной ЕС AI Act, нет.</p>
<p>В России развитие этических и правовых норм для обучения ИИ происходит в непростой ситуации. С одной стороны, государство стремится к технологическому суверенитету, с другой – активно развивается коммерческий рынок, а законодательство отстает от стремительных изменений. В отличие от Запада, где акцент делается на расовых проблемах, в России этические риски связаны с региональным и социально-экономическим неравенством в данных. Правовые же проблемы сосредоточены вокруг устаревших норм авторского права и гражданской ответственности, которые не справляются с новыми технологиями. Россия может избежать западных ошибок, выстроив сбалансированное регулирование с самого начала. Однако для этого нужен открытый диалог всех заинтересованных сторон: разработчиков, юристов, этиков и регуляторов. Без него обучение ИИ в России рискует стать &#8220;черным ящиком&#8221; не только в техническом, но и в нормативном плане, с непредсказуемыми последствиями для всех.</p>
<p><strong>Выводы</strong></p>
<p>Развитие искусственного интеллекта окончательно перестало быть сугубо технологической гонкой и превратилось в масштабный социальный эксперимент, исход которого зависит от нашей способности найти баланс между инновациями и ценностями. Как показал анализ, этические и правовые аспекты не являются внешними ограничителями для обучения ИИ — они составляют его смысловой фундамент.</p>
<p>На современном этапе развития искусственного интеллекта наблюдается фундаментальное противоречие: стремление к созданию объективного и безопасного ИИ требует намеренного включения в его обучение спорных социальных конструктов, таких как раса, пол и уровень дохода, а также переосмысления устоявшихся правовых норм, включая авторское право и концепцию вины. Процесс обучения ИИ, по сути, становится зеркалом, отражающим системные противоречия, предрассудки и правовые лакуны, присущие нашему обществу, с пугающей ясностью.</p>
<p>При этом универсального решения не существует, о чем красноречиво свидетельствует радикальное расхождение регуляторных подходов. Европейский путь (GDPR, AI Act) жертвует скоростью развития ради превентивной защиты прав и прозрачности. Американская модель делает ставку на инновации и постфактумное урегулирование конфликтов через суды. Российский контекст, в свою очередь, демонстрирует третью траекторию, где на первый план выходят задачи технологического суверенитета и безопасности, что создает уникальные вызовы в виде цифровой изоляции данных и переосмысления классических правовых норм под давлением национальных стратегий.</p>
<p>Искусственный интеллект, обученный на наших данных, унаследует не только наши знания, но и наши конфликты. Задача сегодня — не просто обучить его отвечать на вопросы, а заложить в процесс обучения механизмы, которые заставят его задавать правильные вопросы о справедливости, ответственности и границах собственного воздействия.</p>
]]></content:encoded>
			<wfw:commentRss>https://web.snauka.ru/issues/2025/12/104010/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
