<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Электронный научно-практический журнал «Современные научные исследования и инновации» &#187; машина опорных векторов</title>
	<atom:link href="http://web.snauka.ru/issues/tag/mashina-opornyih-vektorov/feed" rel="self" type="application/rss+xml" />
	<link>https://web.snauka.ru</link>
	<description></description>
	<lastBuildDate>Sat, 18 Apr 2026 09:41:14 +0000</lastBuildDate>
	<language>ru</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=3.2.1</generator>
		<item>
		<title>Разбор по косточкам: как случайный лес принимает решения на примере медицинской диагностики</title>
		<link>https://web.snauka.ru/issues/2025/11/103927</link>
		<comments>https://web.snauka.ru/issues/2025/11/103927#comments</comments>
		<pubDate>Wed, 05 Nov 2025 05:33:31 +0000</pubDate>
		<dc:creator>Пальгова Полина Павловна</dc:creator>
				<category><![CDATA[01.00.00 ФИЗИКО-МАТЕМАТИЧЕСКИЕ НАУКИ]]></category>
		<category><![CDATA[ансамбли]]></category>
		<category><![CDATA[бэггинг]]></category>
		<category><![CDATA[дерево решений]]></category>
		<category><![CDATA[диабет]]></category>
		<category><![CDATA[Классификация]]></category>
		<category><![CDATA[машина опорных векторов]]></category>
		<category><![CDATA[машинное обучение]]></category>
		<category><![CDATA[медицинская диагностика]]></category>
		<category><![CDATA[правило большинства]]></category>
		<category><![CDATA[случайный лес]]></category>

		<guid isPermaLink="false">https://web.snauka.ru/issues/2025/11/103927</guid>
		<description><![CDATA[Научный руководитель: Вильданов Алмаз Нафкатович к.ф.-м.н., Уфимский университет науки и технологий, Нефтекамский филиал 1. Задача (Постановка проблемы) В задачах бинарной классификации, таких как медицинская диагностика, критически важна не только точность, но и устойчивость прогноза. Одно дерево решений может быть неустойчивым и сильно зависеть от шума в данных. Как создать модель, которая была бы более надежной и точной? [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: center;" align="right"><em>Научный руководитель: Вильданов Алмаз Нафкатович<br />
</em><em>к.ф.-м.н., </em><em>Уфимский университет науки и технологий, Нефтекамский филиал</em></p>
<h3><strong>1. Задача (Постановка проблемы)</strong></h3>
<p>В задачах бинарной классификации, таких как медицинская диагностика, критически важна не только точность, но и устойчивость прогноза. Одно дерево решений может быть неустойчивым и сильно зависеть от шума в данных. Как создать модель, которая была бы более надежной и точной? Решением этой проблемы является использование ансамблей — комитета моделей, которые совместно принимают решение.</p>
<p><strong>Конкретная задача:</strong> Имея данные пациента (ИМТ = 28, Возраст = 60) и структуру обученного случайного леса из трех деревьев, необходимо:</p>
<ol>
<li>Определить индивидуальный прогноз каждого дерева.</li>
<li>Вывести итоговый прогноз леса по правилу большинства голосов.</li>
<li>Выявить дерево, прогноз которого отличается от остальных.</li>
</ol>
<h3><strong>2. Теория</strong></h3>
<p><strong>Случайный лес (Random Forest)</strong> — это алгоритм машинного обучения, относящийся к группе ансамблевых методов. Его основная идея — <strong>бэггинг (Bootstrap Aggregating)</strong> и <strong>случайность</strong>.</p>
<ul>
<li><strong>Ансамблирование:</strong> Принцип «один за всех, и все за одного». Вместо одного сложного дерева строится множество (лес) более простых. Каждое дерево в лесе «голосует» за тот или иной класс.</li>
<li><strong>Бэггинг:</strong> Каждое дерево обучается на своем, случайном подмножестве исходных данных. Это позволяет деревьям быть разнообразными и не повторять ошибки друг друга.</li>
<li><strong>Случайность признаков:</strong> При построении каждого узла дерева рассматривается не все множество признаков, а лишь их случайное подмножество. Это заставляет деревья быть еще более независимыми.</li>
</ul>
<p><strong>Преимущества подхода:</strong></p>
<ul>
<li><strong>Высокая точность:</strong> Коллективное решение обычно лучше индивидуального.</li>
<li><strong>Устойчивость к переобучению:</strong> Разные деревья компенсируют переобучение друг друга.</li>
<li><strong>Робастность:</strong> Устойчив к выбросам и шуму в данных.</li>
</ul>
<h3><strong>3. Решение (Практическая реализация)</strong></h3>
<p>Проведем пациента с данными <strong>(ИМТ=28, Возраст=60)</strong> через каждое из трех деревьев.</p>
<p><strong>Дерево 1:</strong></p>
<ol>
<li><strong>Правило:</strong> ИМТ ≤ 30? Да, 28 ≤ 30.</li>
<li>Следуем по левой ветке и сразу попадаем в лист с <strong>ответом: «нет» (0)</strong>.</li>
</ol>
<p><strong>Дерево 2:</strong></p>
<ol>
<li><strong>Правило:</strong> Возраст ≤ 50? Нет, 60 &gt; 50.</li>
<li>Следуем по правой ветке.</li>
<li>Следующее правило: ИМТ ≤ 28? Да, 28 ≤ 28.</li>
<li>Следуем по левой ветке и попадаем в лист с <strong>ответом: «да» (1)</strong>.</li>
</ol>
<p><strong>Дерево 3:</strong></p>
<ol>
<li><strong>Правило:</strong> ИМТ ≤ 27? Нет, 28 &gt; 27.</li>
<li>Следуем по правой ветке.</li>
<li>Следующее правило: Возраст ≤ 45? Нет, 60 &gt; 45.</li>
<li>Следуем по правой ветке и попадаем в лист с <strong>ответом: «да» (1)</strong>.</li>
</ol>
<p><strong>Анализ голосования:</strong></p>
<ul>
<li>Дерево 1: <strong>0 («нет»)</strong></li>
<li>Дерево 2: <strong>1 («да»)</strong></li>
<li>Дерево 3: <strong>1 («да»)</strong></li>
</ul>
<p><strong>Итоговое решение по правилу большинства:</strong> Победил класс <strong>1 («да»)</strong> с двумя голосами против одного.</p>
<p><strong>Ответы на вопросы задачи:</strong></p>
<ul>
<li><strong>Итоговый прогноз:</strong> У пациента есть диабет (<strong>класс 1</strong>).</li>
<li><strong>Дерево с другим результатом:</strong> <strong>Дерево 1</strong> предсказало отсутствие диабета, в то время как Дерево 2 и Дерево 3 предсказали его наличие.</li>
</ul>
<h3><strong>4. Вывод</strong></h3>
<p>Данный пример наглядно демонстрирует мощь ансамблирования в машинном обучении. Даже несмотря на то, что одно из деревьев (Дерево 1) дало ошибочный, с точки зрения большинства, прогноз, совокупное решение леса оказалось другим и, вероятно, более точным. Это произошло потому, что Дерево 1, ориентированное в первую очередь на ИМТ, «не учло» важность возраста для данного конкретного пациента, которую смогли уловить другие деревья. Таким образом, случайный лес повышает надежность прогноза, агрегируя мнения множества слабых, но разнообразных моделей, что делает его незаменимым инструментом для решения сложных задач классификации.</p>
]]></content:encoded>
			<wfw:commentRss>https://web.snauka.ru/issues/2025/11/103927/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Бинарное кодирование категориальных признаков: теория и практика на примере признака «Служба в армии»</title>
		<link>https://web.snauka.ru/issues/2025/12/103926</link>
		<comments>https://web.snauka.ru/issues/2025/12/103926#comments</comments>
		<pubDate>Wed, 03 Dec 2025 05:44:30 +0000</pubDate>
		<dc:creator>Пальгова Полина Павловна</dc:creator>
				<category><![CDATA[01.00.00 ФИЗИКО-МАТЕМАТИЧЕСКИЕ НАУКИ]]></category>
		<category><![CDATA[ансамбли]]></category>
		<category><![CDATA[бэггинг]]></category>
		<category><![CDATA[дерево решений]]></category>
		<category><![CDATA[диабет]]></category>
		<category><![CDATA[Классификация]]></category>
		<category><![CDATA[машина опорных векторов]]></category>
		<category><![CDATA[машинное обучение]]></category>
		<category><![CDATA[медицинская диагностика]]></category>
		<category><![CDATA[правило большинства]]></category>
		<category><![CDATA[случайный лес]]></category>

		<guid isPermaLink="false">https://web.snauka.ru/issues/2025/12/103926</guid>
		<description><![CDATA[Научный руководитель: Вильданов Алмаз Нафкатович к.ф.-м.н., Уфимский университет науки и технологий, Нефтекамский филиал В области машинного обучения и анализа данных большинство алгоритмов (такие как линейная регрессия, логистическая регрессия, деревья решений и нейронные сети) работают исключительно с числовыми данными. Однако на практике исходные наборы данных часто содержат категориальные (номинальные) признаки. Примером такого признака в вашем задании является столбец [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: center;" align="right"><em>Научный руководитель: Вильданов Алмаз Нафкатович<br />
</em><em>к.ф.-м.н., </em><em>Уфимский университет науки и технологий, Нефтекамский филиал</em></p>
<p>В области машинного обучения и анализа данных большинство алгоритмов (такие как линейная регрессия, логистическая регрессия, деревья решений и нейронные сети) работают исключительно с числовыми данными. Однако на практике исходные наборы данных часто содержат категориальные (номинальные) признаки. Примером такого признака в вашем задании является столбец «Служил» со значениями «да» и «нет».</p>
<p><strong>Задача:</strong> Преобразовать категориальный текстовый признак «Служил» в числовой формат, пригодный для обработки алгоритмами машинного обучения, без потери его логического смысла.</p>
<h3>2. Теория</h3>
<p>Категориальные признаки — это переменные, которые принимают значение из ограниченного набора возможных вариантов (категорий). Они бывают:</p>
<ul>
<li><strong>Номинальные:</strong> Категории не имеют порядка (например, «красный», «синий», «зеленый»; «да»/«нет»).</li>
<li><strong>Порядковые:</strong> Категории имеют内在ний порядок (например, «младший», «средний», «старший»).</li>
</ul>
<p><strong>Проблема «наивного» присвоения чисел:</strong> Прямое присвоение чисел (например, «да» = 1, «нет» = 2) для номинальных признаков может ввести алгоритм в заблуждение. Модель может ошибочно интерпретировать, что «нет» (2) больше, чем «да» (1), или что расстояние между «да» и «нет» равно 1, что лишено смысла.</p>
<p><strong>Решение: Бинарное кодирование (Label Encoding для бинарных признаков)</strong><br />
Для признаков, имеющих ровно две категории (бинарных), применяется простой и эффективный метод — прямое сопоставление с числами 0 и 1. Этот частный случай более общего метода Label Encoding является безопасным, так как между двумя состояниями действительно существует лишь одно логическое «расстояние».</p>
<ul>
<li><strong>«да» → 1</strong></li>
<li><strong>«нет» → 0</strong></li>
</ul>
<p>Такой подход полностью сохраняет информативность признака, преобразуя его в удобный для вычислений формат.</p>
<h3>3. Решение (Практическая реализация)</h3>
<p>Решение задачи состоит из двух этапов: ручного преобразования (для понимания сути) и программной реализации.</p>
<p><strong>3.1. Ручное преобразование (Ответ на ваше задание)</strong><br />
Мы проходим по каждой строке Таблицы 1 и в соответствии с правилом «да» → 1, «нет» → 0 заполняем Таблицу 2.</p>
<p><strong>Таблица 2. Кодировка (результат)</strong></p>
<table width="0" border="1" cellspacing="0" cellpadding="7">
<thead>
<tr>
<td>
<p style="text-align: center;"><strong>№</strong></p>
</td>
<td style="text-align: center;"><strong>Возраст</strong></td>
<td>
<p style="text-align: center;"><strong>Служба</strong></p>
</td>
</tr>
</thead>
<tbody>
<tr>
<td style="text-align: left;">1</td>
<td style="text-align: left;">44</td>
<td style="text-align: left;">1</td>
</tr>
<tr>
<td>2</td>
<td>41</td>
<td>0</td>
</tr>
<tr>
<td>3</td>
<td>39</td>
<td>0</td>
</tr>
<tr>
<td>4</td>
<td>17</td>
<td>1</td>
</tr>
<tr>
<td>5</td>
<td>33</td>
<td>1</td>
</tr>
<tr>
<td style="text-align: left;">6</td>
<td style="text-align: left;">47</td>
<td style="text-align: left;">0</td>
</tr>
</tbody>
</table>
<p><strong>3.2. Программная реализация на Python с использованием библиотеки Pandas</strong><br />
На практике преобразования выполняются автоматически. Вот пример кода:</p>
<p>python</p>
<p>Копировать</p>
<p>Скачать<br />
import pandas as pd</p>
<p># Создаем DataFrame из исходных данных<br />
data = {<br />
    &#8216;№&#8217;: [1, 2, 3, 4, 5, 6],<br />
    &#8216;Возраст&#8217;: [44, 41, 39, 17, 33, 47],<br />
    &#8216;Служил&#8217;: ['да', 'нет', 'нет', 'да', 'да', 'нет']<br />
}<br />
df = pd.DataFrame(data)</p>
<p># Преобразуем признак &#8220;Служил&#8221; в числовой формат<br />
df['Служба'] = df['Служил'].map({&#8216;да&#8217;: 1, &#8216;нет&#8217;: 0})</p>
<p># Выводим результат<br />
print(df[['№', 'Возраст', 'Служба']])</p>
<p># Сохраняем в CSV-файл (как в вашем задании)<br />
df[['№', 'Возраст', 'Служба']].to_csv(&#8216;my_submission.csv&#8217;, index=False)<br />
<strong>Результат выполнения кода будет в точности соответствовать заполненной вами Таблице 2.</strong></p>
<h3>4. Вывод</h3>
<p>Преобразование категориальных признаков в числовые — это критически важный и обязательный этап предобработки данных перед построением моделей машинного обучения. Для бинарных признаков, таких как «Служил», наиболее простым и корректным методом является прямое отображение значений «да»/«нет» на 1/0. Этот подход устраняет барьер между данными, понятными человеку, и данными, пригодными для машинной обработки, не искажая при этом исходную информацию и не внося ложных закономерностей в модель.</p>
]]></content:encoded>
			<wfw:commentRss>https://web.snauka.ru/issues/2025/12/103926/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
