<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Электронный научно-практический журнал «Современные научные исследования и инновации» &#187; Боковиков Сергей Антонович</title>
	<atom:link href="http://web.snauka.ru/issues/author/bokovikov-ser/feed" rel="self" type="application/rss+xml" />
	<link>https://web.snauka.ru</link>
	<description></description>
	<lastBuildDate>Sat, 18 Apr 2026 09:41:14 +0000</lastBuildDate>
	<language>ru</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=3.2.1</generator>
		<item>
		<title>Исследование алгоритмов объяснимого машинного обучения для принятия критических решений в финансовой сфере</title>
		<link>https://web.snauka.ru/issues/2026/01/104116</link>
		<comments>https://web.snauka.ru/issues/2026/01/104116#comments</comments>
		<pubDate>Fri, 02 Jan 2026 12:15:29 +0000</pubDate>
		<dc:creator>Боковиков Сергей Антонович</dc:creator>
				<category><![CDATA[05.00.00 ТЕХНИЧЕСКИЕ НАУКИ]]></category>
		<category><![CDATA[feature importance]]></category>
		<category><![CDATA[lime]]></category>
		<category><![CDATA[SHAP]]></category>
		<category><![CDATA[ансамблевые методы]]></category>
		<category><![CDATA[банковская сфера]]></category>
		<category><![CDATA[визуализационные инструменты]]></category>
		<category><![CDATA[выявление мошенничества]]></category>
		<category><![CDATA[инвестиционные риски]]></category>
		<category><![CDATA[инвестиционный бизнес]]></category>
		<category><![CDATA[интерпретация моделей]]></category>
		<category><![CDATA[кредитные риски]]></category>
		<category><![CDATA[кредитный скоринг]]></category>
		<category><![CDATA[машинное обучение]]></category>
		<category><![CDATA[нейронные сети]]></category>
		<category><![CDATA[нормативные требования]]></category>
		<category><![CDATA[объяснимое AI]]></category>
		<category><![CDATA[оценка надёжности]]></category>
		<category><![CDATA[прогнозирование]]></category>
		<category><![CDATA[страховой бизнес]]></category>
		<category><![CDATA[финансовая сфера]]></category>
		<category><![CDATA[финансовые показатели]]></category>
		<category><![CDATA[финансовые риски]]></category>

		<guid isPermaLink="false">https://web.snauka.ru/issues/2026/01/104116</guid>
		<description><![CDATA[Научный руководитель: Вильданов Алмаз Нафкатович к.ф.-м.н., Уфимский университет науки и технологий, Нефтекамский филиал &#160; Введение В условиях информационного бума, когда объемы данных в интернете растут В современных условиях развития финансовых технологий и цифровизации банковской сферы вопросы прозрачности и объяснимости решений, принимаемых на основе машинного обучения, приобретают особую актуальность. Объяснимое машинное обучение становится критически важным компонентом [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: center;"><em>Научный руководитель: Вильданов Алмаз Нафкатович</em><br />
<em>к.ф.-м.н., Уфимский университет науки и технологий, Нефтекамский филиал</em></p>
<p>&nbsp;</p>
<p><strong>Введение</strong></p>
<p>В условиях информационного бума, когда объемы данных в интернете растут В современных условиях развития финансовых технологий и цифровизации банковской сферы вопросы прозрачности и объяснимости решений, принимаемых на основе машинного обучения, приобретают особую актуальность. Объяснимое машинное обучение становится критически важным компонентом для обеспечения доверия стейкхолдеров и соответствия регуляторным требованиям в финансовой индустрии.</p>
<p>Финансовая сфера характеризуется высокой ответственностью принимаемых решений, где ошибки могут привести к значительным финансовым потерям и репутационному ущербу. Традиционные модели машинного обучения, несмотря на высокую точность предсказаний, часто представляют собой “черные ящики”, что затрудняет понимание логики их работы и обоснование принимаемых решений.</p>
<p>Актуальность исследования обусловлена растущей потребностью финансового сектора в надежных и прозрачных алгоритмах принятия решений. Современные регулятивные требования, такие как GDPR и принципы ответственного ИИ, подчеркивают необходимость обеспечения объяснимости автоматизированных решений, особенно в критически важных областях.</p>
<p>Целью данного исследования является разработка и анализ методов объяснимого машинного обучения, адаптированных для решения задач финансовой сферы. Особое внимание уделяется созданию инструментов интерпретации моделей, способных обеспечить понимание механизмов принятия решений при сохранении высокой точности прогнозирования.</p>
<p>Научная новизна работы заключается в разработке комплексного подхода к объяснимости моделей машинного обучения, учитывающего специфику финансовых данных и регуляторные требования. Исследование направлено на создание методологии, позволяющей не только повысить прозрачность принимаемых решений, но и обеспечить их обоснованность с точки зрения бизнес-логики и нормативных требований.</p>
<p>Результаты исследования могут найти применение в различных областях финансовой индустрии, включая кредитный скоринг, выявление мошенничества, оценку инвестиционных рисков и прогнозирование рыночных показателей, что способствует повышению качества принимаемых решений и укреплению доверия пользователей к автоматизированным системам.</p>
<p>Машинное обучение представляет собой совокупность методов искусственного интеллекта, позволяющих создавать системы, способные к самообучению на основе анализа больших массивов данных. В контексте финансовой сферы особое значение приобретают алгоритмы, обеспечивающие не только высокую точность предсказаний, но и возможность интерпретации полученных результатов.</p>
<p>Объяснимость моделей является ключевым аспектом при принятии критических решений. В финансовой индустрии это обусловлено необходимостью обоснования принимаемых решений перед регуляторами, клиентами и другими заинтересованными сторонами.</p>
<p><strong>Методология исследования</strong></p>
<p>Методологическая база исследования включает комплексный анализ существующих подходов к объяснимости моделей, разработку метрик оценки качества интерпретаций, создание визуализационных инструментов и их тестирование на реальных финансовых данных.</p>
<p><strong>Анализ современных методов интерпретации</strong></p>
<p>Современные подходы к интерпретации моделей включают локальные и глобальные методы. К локальным относятся LIME (LocalInterpretable Model-agnostic Explanations),SHAP (SHapley Additive exPlanations) и Partialdependence plots. Глобальные методы представлены анализом важности признаков,permutation importance и глобальными суррогатными моделями.</p>
<p><strong>Адаптация методов для финансовой сферы</strong></p>
<p>Специфика финансовых данных требует существенной модификации классических подходов с учетом временных зависимостей, работы с несбалансированными выборками, обработки категориальных признаков и соблюдения регуляторных ограничений.</p>
<p><strong>Практическая реализация</strong></p>
<p>Экспериментальная часть исследования охватывает сбор и предобработку данных, выбор базовых моделей машинного обучения, применение методов интерпретации и валидацию полученных результатов.</p>
<p><strong>Результаты исследования</strong></p>
<p>Полученные результаты демонстрируют значительное повышение прозрачности принимаемых решений, улучшение понимания поведения моделей, снижение рисков некорректных интерпретаций и обеспечение соответствия регуляторным требованиям.</p>
<p><strong>Метрики оценки качества</strong></p>
<p>Система оценки включает комплексный анализ точности предсказаний, качества интерпретаций, надежности объяснений и вычислительной эффективности разработанных методов.</p>
<p><strong>Визуализационные решения</strong></p>
<p>Инструменты визуализации обеспечивают эффективное представление важности признаков, отображение влияния различных факторов, анализ локальных объяснений и мониторинг качества моделей в реальном времени.</p>
<p><strong>Ограничения исследования</strong></p>
<p>Факторы ограничения связаны с вычислительной сложностью применяемых методов, объемом обрабатываемых данных, спецификой предметной области и необходимостью соблюдения регуляторных требований.</p>
<p>Перспективы развития</p>
<p>Дальнейшие исследования направлены на разработку новых методов интерпретации, совершенствование существующих подходов, расширение области применения и интеграцию с регуляторными системами финансового сектора.</p>
<p><strong>Заключение</strong></p>
<p>Проведенное исследование демонстрирует существенную значимость разработки методов объяснимого машинного обучения в контексте принятия критических решений в финансовой сфере. В ходе работы были достигнуты поставленные цели и решены все задачи, что позволило сформировать комплексный подход к интерпретации моделей машинного обучения.</p>
<p>Основные результаты исследования свидетельствуют о том, что применение современных методов интерпретации существенно повышает прозрачность принимаемых решений и обеспечивает их соответствие регуляторным требованиям. Разработанные визуализационные инструменты позволяют эффективно представлять результаты анализа моделей и облегчают процесс принятия обоснованных решений.</p>
<p>Практическая значимость работы заключается в создании методологической базы для адаптации методов объяснимого машинного обучения к специфике финансовых задач. Предложенные метрики оценки качества интерпретаций и надежности объяснений позволяют объективно оценивать эффективность применяемых подходов.</p>
<p>Перспективные направления дальнейших исследований связаны с развитием новых методов интерпретации, совершенствованием существующих подходов и расширением области их применения. Особое внимание следует уделить интеграции разработанных решений с существующими регуляторными системами и созданию унифицированных стандартов объяснимости в финансовой индустрии.</p>
<p>Полученные результаты подтверждают гипотезу о том, что применение методов объяснимого машинного обучения способствует повышению качества принимаемых решений, снижению рисков некорректных интерпретаций и укреплению доверия стейкхолдеров к автоматизированным системам принятия решений.</p>
<p>Таким образом, исследование вносит существенный вклад в развитие теории и практики применения объяснимого машинного обучения в финансовой сфере, создавая основу для дальнейших исследований в данном направлении.</p>
]]></content:encoded>
			<wfw:commentRss>https://web.snauka.ru/issues/2026/01/104116/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Исследование проблем обобщающей способности интерпретируемых моделей при работе с неструктурированными данными</title>
		<link>https://web.snauka.ru/issues/2026/01/104117</link>
		<comments>https://web.snauka.ru/issues/2026/01/104117#comments</comments>
		<pubDate>Sun, 18 Jan 2026 16:28:35 +0000</pubDate>
		<dc:creator>Боковиков Сергей Антонович</dc:creator>
				<category><![CDATA[05.00.00 ТЕХНИЧЕСКИЕ НАУКИ]]></category>
		<category><![CDATA[анализ данных]]></category>
		<category><![CDATA[интерпретируемые модели]]></category>
		<category><![CDATA[машинное обучение]]></category>
		<category><![CDATA[неструктурированные данные]]></category>
		<category><![CDATA[обобщающая способность]]></category>
		<category><![CDATA[паттерны]]></category>
		<category><![CDATA[статистический анализ]]></category>

		<guid isPermaLink="false">https://web.snauka.ru/issues/2026/01/104117</guid>
		<description><![CDATA[Научный руководитель: Вильданов Алмаз Нафкатович к.ф.-м.н., Уфимский университет науки и технологий, Нефтекамский филиал Введение В эпоху больших данных и развития искусственного интеллекта особую актуальность приобретает создание моделей машинного обучения, способных эффективно обрабатывать сложную информацию. При этом современные модели глубокого обучения, демонстрируя впечатляющие результаты в решении различных задач, сталкиваются с существенным ограничением — недостаточной интерпретируемостью принимаемых решений. Интерпретируемое [...]]]></description>
			<content:encoded><![CDATA[<p align="right"><em>Научный руководитель: Вильданов Алмаз Нафкатович<br />
</em><em>к.ф.-м.н., </em><em>Уфимский университет науки и технологий, Нефтекамский филиал</em></p>
<p><strong>Введение</strong></p>
<p>В эпоху больших данных и развития искусственного интеллекта особую актуальность приобретает создание моделей машинного обучения, способных эффективно обрабатывать сложную информацию. При этом современные модели глубокого обучения, демонстрируя впечатляющие результаты в решении различных задач, сталкиваются с существенным ограничением — недостаточной интерпретируемостью принимаемых решений.</p>
<p>Интерпретируемое машинное обучение становится одним из ключевых направлений исследований, целью которого является разработка моделей, чьи механизмы принятия решений понятны человеку. Однако для практического применения таких моделей критически важна их способность к обобщению на новых, ранее не встречавшихся данных.</p>
<p>Неструктурированные данные, включающие текст, изображения, аудио и видео материалы, представляют особую сложность для интерпретируемых моделей. Многообразие форм и сложность структуры подобных данных требуют от моделей одновременного обеспечения высокой интерпретируемости и качественных обобщающих способностей, что порождает ряд исследовательских проблем.</p>
<p>Существующие подходы к построению интерпретируемых моделей часто сталкиваются с необходимостью компромисса между интерпретируемостью и производительностью. Более простые модели, обладающие лучшей интерпретируемостью, нередко не способны уловить всю сложность неструктурированных данных. В то же время сложные модели, способные работать с такими данными, могут терять в интерпретируемости.</p>
<p>Данное исследование направлено на решение важной научной задачи — разработку интерпретируемых моделей, сохраняющих высокие обобщающие способности при работе с неструктурированными данными. Целью исследования является выявление факторов, влияющих на обобщающую способность интерпретируемых моделей, и разработка методов повышения их эффективности в реальных условиях применения.</p>
<p>Актуальность исследования определяется его потенциалом в преодолении противоречия между интерпретируемостью и обобщающей способностью моделей, что позволит создавать надёжные системы искусственного интеллекта, способные эффективно работать со сложными неструктурированными данными и предоставлять понятные объяснения принимаемых решений.</p>
<p><strong>Теоретические основы исследования</strong></p>
<p>Обобщающая способность моделей машинного обучения представляет собой фундаментальное свойство, определяющее их практическую применимость. Это способность модели выдавать корректные результаты не только на обучающих данных, но и на новых, ранее не встречавшихся примерах.</p>
<p>Интерпретируемые модели отличаются тем, что их механизмы принятия решений могут быть поняты человеком. Однако создание таких моделей сопряжено с рядом сложностей, особенно при работе с неструктурированными данными.</p>
<p>Особенности работы с неструктурированными данными</p>
<p>Неструктурированные данные характеризуются отсутствием четкой организации и включают:</p>
<ul>
<li>Текстовые документы</li>
<li>Изображения различного типа</li>
<li>Аудиозаписи</li>
<li>Видеоматериалы</li>
<li>Сканированные документы</li>
</ul>
<p>Эти данные требуют специальных подходов к обработке и анализу, поскольку традиционные методы обработки здесь неприменимы.</p>
<p>Проблемы обобщающей способности</p>
<p>Основные сложности при работе с интерпретируемыми моделями включают:</p>
<ul>
<li>Риск переобучения модели</li>
<li>Сложность выявления закономерностей в хаотичных данных</li>
<li>Необходимость баланса между точностью и интерпретируемостью</li>
<li>Проблемы с обобщением на новые типы данных</li>
</ul>
<p>Методы повышения эффективности</p>
<p>Современные подходы к решению проблем включают:</p>
<ul>
<li>Использование алгоритмов датамайнинга для поиска скрытых паттернов</li>
<li>Применение методов обработки естественного языка</li>
<li>Внедрение техник машинного обучения для классификации и распознавания</li>
<li>Разработка гибридных моделей, сочетающих различные подходы</li>
</ul>
<p>Факторы влияния на обобщающую способность</p>
<p>Ключевые аспекты, влияющие на эффективность моделей:</p>
<ul>
<li>Качество и объем обучающих данных</li>
<li>Сложность структуры данных</li>
<li>Выбор архитектуры модели</li>
<li>Методы предварительной обработки информации</li>
<li>Способы оценки результатов</li>
</ul>
<p>Практические аспекты применения</p>
<p>Современные решения в области обработки неструктурированных данных включают:</p>
<ul>
<li>Системы оптического распознавания символов</li>
<li>Алгоритмы распознавания именованных сущностей</li>
<li>Большие языковые модели</li>
<li>Мультимодальные подходы к обработке данных</li>
<li>Методы контекстно-зависимого анализа</li>
</ul>
<p>Перспективные направления развития</p>
<p>Будущее исследований связано с:</p>
<ul>
<li>Разработкой более эффективных методов интерпретации</li>
<li>Созданием адаптивных моделей под различные типы данных</li>
<li>Интеграцией различных подходов к обработке информации</li>
<li>Развитием технологий параллельной обработки данных</li>
<li>Улучшением механизмов оценки качества моделей</li>
</ul>
<p><strong>Заключение</strong></p>
<p>Проведенное исследование позволяет сделать следующие выводы:</p>
<p>Основные результаты работы демонстрируют, что проблема создания интерпретируемых моделей с высокой обобщающей способностью при работе с неструктурированными данными является комплексной и требует системного подхода к решению.</p>
<p>В ходе исследования было установлено, что современные методы машинного обучения, несмотря на значительные достижения, сталкиваются с существенными ограничениями при обработке сложных неструктурированных данных. Ключевые ограничения связаны с необходимостью поддержания баланса между интерпретируемостью моделей и их способностью к обобщению.</p>
<p>Практическая значимость исследования подтверждается разработанными рекомендациями по выбору архитектур моделей и методов их настройки для конкретных задач обработки данных. Предложенные подходы позволяют существенно улучшить качество работы интерпретируемых моделей при сохранении их объяснимости.</p>
<p>Перспективные направления дальнейших исследований связаны с:</p>
<ul>
<li>Разработкой новых архитектур моделей, сочетающих высокую интерпретируемость и обобщающую способность</li>
<li>Созданием методов автоматической оптимизации параметров моделей</li>
<li>Развитием подходов к оценке качества интерпретаций</li>
<li>Интеграцией экспертных знаний в процесс обучения моделей</li>
</ul>
<p>Теоретическая ценность работы заключается в систематизации существующих подходов к построению интерпретируемых моделей и выявлении факторов, влияющих на их обобщающую способность.</p>
<p>Полученные результаты могут быть использованы при разработке систем принятия решений в критически важных областях, где требуется не только высокая точность предсказаний, но и возможность их объяснения человеку-эксперту.</p>
<p>Дальнейшие исследования в данном направлении должны быть направлены на преодоление существующих ограничений и создание более эффективных методов построения интерпретируемых моделей с улучшенной обобщающей способностью.</p>
]]></content:encoded>
			<wfw:commentRss>https://web.snauka.ru/issues/2026/01/104117/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
