<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Электронный научно-практический журнал «Современные научные исследования и инновации» &#187; Герасимова Мария Сергеевна</title>
	<atom:link href="http://web.snauka.ru/issues/author/gerasimovamariya/feed" rel="self" type="application/rss+xml" />
	<link>https://web.snauka.ru</link>
	<description></description>
	<lastBuildDate>Sat, 18 Apr 2026 09:41:14 +0000</lastBuildDate>
	<language>ru</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>http://wordpress.org/?v=3.2.1</generator>
		<item>
		<title>Информативность факторов, влияющих на оценку кредитоспособности заемщиков банка</title>
		<link>https://web.snauka.ru/issues/2017/01/77460</link>
		<comments>https://web.snauka.ru/issues/2017/01/77460#comments</comments>
		<pubDate>Sun, 22 Jan 2017 07:17:37 +0000</pubDate>
		<dc:creator>Герасимова Мария Сергеевна</dc:creator>
				<category><![CDATA[05.00.00 ТЕХНИЧЕСКИЕ НАУКИ]]></category>
		<category><![CDATA[банки]]></category>
		<category><![CDATA[информативность факторов]]></category>
		<category><![CDATA[оценка кредитоспособности заемщиков]]></category>

		<guid isPermaLink="false">https://web.snauka.ru/issues/2017/01/77460</guid>
		<description><![CDATA[ Захарова О.И., научный руководитель, кандидат технических наук, доцент кафедры «Информационные системы и технологии» Поволжский государственный университет телекоммуникаций и информатики При изучении объектов, характеризуемых большим числом факторов, часто бывает важно определить, какие из этих факторов в большей степени влияют на интересующие нас свойства объектов. Предварительная оценка значимости факторов может быть сделана на основе логического анализа, научных [...]]]></description>
			<content:encoded><![CDATA[<p style="text-align: center;"> <em style="text-align: center;">Захарова О.И., научный руководитель, кандидат технических наук,</em></p>
<p style="text-align: center;" align="right"><em>доцент кафедры «Информационные системы и технологии»</em></p>
<p style="text-align: center;" align="right"><em>Поволжский государственный университет телекоммуникаций и информатики</em></p>
<p><span>При изучении объектов, характеризуемых большим числом факторов, часто бывает важно определить, какие из этих факторов в большей степени влияют на интересующие нас свойства объектов.</span><br />
<span>Предварительная оценка значимости факторов может быть сделана на основе логического анализа, научных исследований или интуитивно. Однако более точно поставленная задача может быть решена на основе вычисления оценки информационной значимости факторов, которая дает возможность количественно определить степень их значимости.</span><br />
<span>Применительно к распознаванию образов информативность фактора &#8211; это оценка количества информации, которую несет в себе фактор о принадлежности объекта к тому или иному классу.</span><br />
<span>Таким образом, информативным и мы будем считать те факторы, информативность которых превышает заданное критическое значение. Если же информативность фактора меньше этого критического значения, то этот фактор неинформативный (или малоинформативный).</span><br />
<span>Количество информации является мерой, которая характеризует значимость фактора с точки зрения распознавания. В то же время количество информации не имеет никакой связи с обще надежностью распознавания и не зависит от правила решения, используемого распознавания системой.</span><br />
<span>Иногда при небольших изменениях режима эксплуатации объектов информативный фактор может стать либо малоинформативным, либо вообще неинформативным, это показывает неполноту наших знаний о степени неустойчивости процессов, ведущих к появлению отказов. Выход из этого положения один &#8211; детальное исследование реальных физических процессов, лежащих в основе развития отказов.</span><br />
<span>Информативность фактора может быть оценена различными критериями. </span><br />
<span>Рассмотрим несколько из них:</span><span>критерий Шеннона;</span><br />
<span>критерий Пирсона;</span><br />
<span>критерий Фишера.</span><span>Критерий </span><strong><span>Шеннона</span></strong><span> - предполагает оценивать информативность как средневзвешенное количество информации, приходящиеся на различные градации признака. Под информацией в теории информации понимают величину устраненной энтропии.</span><br />
<span>Итак, информативность j &#8211; ого признака:</span></p>
<div style="text-align: left;" align="center"><img src="http://content.snauka.ru/web/77460_files/0CAFMM858.gif" alt="" width="224" height="45" /></div>
<p><span>где </span><em><span>G</span></em><span> - количество градаций признака; </span><em><span>K</span></em><span> - количество классов; </span><img src="http://content.snauka.ru/web/77460_files/0CAEIZOGK.gif" alt="" width="16" height="24" /><span> - вероятность </span><em><span>i</span></em><span>-той градации признака. </span><br />
<img src="http://content.snauka.ru/web/77460_files/0CA24B3JZ.gif" alt="" width="82" height="64" /><span>, где </span><img src="http://content.snauka.ru/web/77460_files/0CAHVM463.gif" alt="" width="28" height="25" /><span>- частота появления </span><em><span>i</span></em><span>-той градации в </span><em><span>K</span></em><span> - том классе; </span><em><span>N</span></em><span> - общее число наблюдений.</span><br />
<img src="http://content.snauka.ru/web/77460_files/0CALKWI9M.gif" alt="" width="24" height="25" /><span> - вероятность появления </span><em><span>i</span></em><span>-той градации признака в </span><em><span>K</span></em><span> - том классе</span><br />
<img src="http://content.snauka.ru/web/77460_files/0CAQIDEEL.gif" alt="" width="92" height="68" /><br />
<strong><span>Пример:</span></strong><br />
<span>При анализе кредитоспособности заемщиков банка важное значение имеет работает человек или нет. Так как этот признак относится к качественно информации, то для его обработки применяется прием условного кодирования. В данном случае &#8211; альтернативного кодирования, то есть такого, при котором признак может принимать одно из двух возможных значении: 0 – кредит не одобрен, 1 – кредит одобрен. Было проанализировано 20 человек, из которых у 9 &#8211; высшее образование, а у 11 &#8211; средне &#8211; специальное. Результат приведен в Таблице 1.</span><br />
<span>Таблица 1 &#8211; Исходные данные</span></p>
<table border="1">
<tbody>
<tr valign="top">
<td rowspan="3" width="87">
<div align="center"><span>Номер градации признака </span><em><span>i</span></em></div>
</td>
<td rowspan="3" width="74">
<div align="center"><span>Значения градации</span></div>
</td>
<td colspan="2" width="434">
<div align="center"><span>Номер класса</span></div>
</td>
</tr>
<tr valign="top">
<td width="202">
<div align="center"><span>1(высшее образование)</span></div>
</td>
<td width="218">
<div align="center"><span>2(средне &#8211; специальное образование)</span></div>
</td>
</tr>
<tr valign="top">
<td colspan="2" width="434">
<div align="center"><span>Частоты появления градаций</span></div>
</td>
</tr>
<tr valign="top">
<td width="87">
<div align="center"><span>1</span></div>
</td>
<td width="74">
<div align="center"><span>0</span></div>
</td>
<td width="202">
<div align="center"><span>4</span></div>
</td>
<td width="218">
<div align="center"><span>9</span></div>
</td>
</tr>
<tr valign="top">
<td width="87">
<div align="center"><span>2</span></div>
</td>
<td width="74">
<div align="center"><span>1</span></div>
</td>
<td width="202">
<div align="center"><span>5</span></div>
</td>
<td width="218">
<div align="center"><span>2</span></div>
</td>
</tr>
</tbody>
</table>
<p><span>Подсчитаем информативность по критерию Шеннона:</span><br />
<img src="http://content.snauka.ru/web/77460_files/0CA9X3YZV.gif" alt="" width="482" height="22" /><br />
<img src="http://content.snauka.ru/web/77460_files/0CAH5ZVVJ.gif" alt="" width="196" height="42" /><br />
<img src="http://content.snauka.ru/web/77460_files/0CA2QV9YZ.gif" alt="" width="200" height="42" /><br />
<img src="http://content.snauka.ru/web/77460_files/0CAYRXFH4.gif" alt="" width="200" height="46" /><br />
<img src="http://content.snauka.ru/web/77460_files/0CA9P3KZN.gif" alt="" width="201" height="46" /><br />
<img src="http://content.snauka.ru/web/77460_files/0CAQ8O4M2.gif" alt="" width="202" height="46" /><br />
<img src="http://content.snauka.ru/web/77460_files/0CAV451IY.gif" alt="" width="205" height="46" /><br />
<span>Значение информативности:</span><br />
<img src="http://content.snauka.ru/web/77460_files/1CA2N6L0Z.gif" alt="" width="606" height="22" /><br />
<span>Определение информативности по </span><em><span>χ</span></em><em><span>2 - </span></em><span>критерию </span><strong><span>Пирсона</span></strong><span>. Предположим, что выполнено </span><em><span>n</span></em><span> измерений некоторой случайной величины </span><img src="http://content.snauka.ru/web/77460_files/1CA7BZ4CX.gif" alt="" width="13" height="21" /><span>: </span><img src="http://content.snauka.ru/web/77460_files/1.gif" alt="" width="74" height="24" /><span>,(1). И есть основание полагать, что результаты распределены нормально с плотностью вероятности</span><br />
<img src="http://content.snauka.ru/web/77460_files/1(1).gif" alt="" width="141" height="50" /><br />
<span>Параметры закона распределения </span><em><span>m</span></em><span> и </span><img src="http://content.snauka.ru/web/77460_files/1CAM84BZK.gif" alt="" width="16" height="14" /><span>обычно неизвестны. Вместо неизвестных параметров подставляют значения их оценок, которые вычисляются по следующим формулам:</span><br />
<img src="http://content.snauka.ru/web/77460_files/1CA85J2Z1.gif" alt="" width="82" height="45" /><br />
<img src="http://content.snauka.ru/web/77460_files/1(2).gif" alt="" width="160" height="50" /><br />
<span>В качестве критерия проверки выдвинутой гипотезы примем критерий согласия Пирсона (критерий согласия “</span><em><span> χ</span></em><em><span>2</span></em><span> ”)</span><br />
<img src="http://content.snauka.ru/web/77460_files/2CA8NLELZ.gif" alt="" width="134" height="48" /><br />
<span>Где k &#8211; число интервалов, на которое разбито выборочное распределение, </span><img src="http://content.snauka.ru/web/77460_files/2.gif" alt="" width="20" height="24" /><span>- частоты эмпирического распределения; </span><img src="http://content.snauka.ru/web/77460_files/2CAP5II8K.gif" alt="" width="24" height="25" /><span> - частоты теоретического распределения. Из формулы вытекает, что критерий характеризует близость эмпирического и теоретического распределений: чем меньше различаются </span><img src="http://content.snauka.ru/web/77460_files/2CAU857EV.gif" alt="" width="20" height="24" /><span>и </span><img src="http://content.snauka.ru/web/77460_files/2CA7U54L9.gif" alt="" width="24" height="25" /><span>, тем меньше значение </span><img src="http://content.snauka.ru/web/77460_files/2(1).gif" alt="" width="21" height="24" /><span>. Доказано, что при </span><img src="http://content.snauka.ru/web/77460_files/2CAHZ4R3P.gif" alt="" width="48" height="14" /><span>закон распределения случайной величины(5) независимо от того, какому закону распределения подчинена генеральная совокупность, стремится к закону распределения </span><img src="http://content.snauka.ru/web/77460_files/2CA2PJF5X.gif" alt="" width="21" height="24" /><span>с </span><em><span>r</span></em><span> степенями свободы.</span><br />
<strong><span>Пример: </span></strong><span>Проверить с помощью критерия </span><span>χ2 </span><span>при уровне значимости 0,05 гипотезу о том, что выборка объема </span><em><span>n</span></em><span> = 20, представленная интервальным вариационным рядом в таблице 2, извлечена из нормальной генеральной совокупности.</span><br />
<span>Таблица 2 &#8211; Исходные данные</span></p>
<table border="1">
<tbody>
<tr valign="top">
<td valign="center" width="110"><span>Номер</span><br />
<span>Интервала </span><em><span>I</span></em></td>
<td valign="center" width="132"><span>Границы</span><br />
<span>Интервала</span></td>
<td valign="center" width="123"><span>Частота</span><br />
<img src="http://content.snauka.ru/web/77460_files/2CAG49QEX.gif" alt="" width="28" height="31" /></td>
</tr>
<tr valign="top">
<td valign="center" width="110"><span>1</span></td>
<td valign="center" width="132"><span>0 – 2</span></td>
<td valign="center" width="123"><span>9</span></td>
</tr>
<tr valign="top">
<td valign="center" width="110"><span>2</span></td>
<td valign="center" width="132"><span>2 – 4</span></td>
<td valign="center" width="123"><span>11</span></td>
</tr>
</tbody>
</table>
<p><span>1. Сформулируем нулевую и альтернативную гипотезы: </span><em><span>Н0</span></em><span> - эмпирическое распределение соответствует нормальному, </span><em><span>Н1</span></em><span> - эмпирическое распределение не соответствует нормальному. </span><br />
<span>Для проверки нулевой гипотезы необходимо рассчитать наблюдаемое значение критерия </span><span>χ2</span><span>набл по формуле и сравнить его с критическим значением </span><span>χ2</span><span>кр.</span><br />
<span>2. Определим параметры предполагаемого (теоретического) нормального закона распределения.</span><br />
<span>Найдем середины интервалов </span><img src="http://content.snauka.ru/web/77460_files/2CA1MGWYU.gif" alt="" width="88" height="42" /><span>и относительные частоты </span><img src="http://content.snauka.ru/web/77460_files/2CA9NNHKL.gif" alt="" width="58" height="42" /><span>. Получим следующие значения:</span></p>
<table border="1">
<tbody>
<tr valign="top">
<td valign="center" width="38"><img src="http://content.snauka.ru/web/77460_files/3.gif" alt="" width="25" height="35" /></td>
<td valign="center" width="25"><span>1</span></td>
<td valign="center" width="25"><span>3</span></td>
</tr>
<tr valign="top">
<td valign="center" width="38"><img src="http://content.snauka.ru/web/77460_files/3(1).gif" alt="" width="35" height="39" /></td>
<td valign="center" width="25"><img src="http://content.snauka.ru/web/77460_files/3(2).gif" alt="" width="24" height="41" /></td>
<td valign="center" width="25"><img src="http://content.snauka.ru/web/77460_files/3(3).gif" alt="" width="24" height="41" /></td>
</tr>
</tbody>
</table>
<p><span>Найдем оценку математического ожидания:</span><br />
<img src="http://content.snauka.ru/web/77460_files/3CAJ45VRD.gif" alt="" width="172" height="45" /><br />
<span>Вычислим оценки дисперсии и стандартного отклонения:</span><br />
<img src="http://content.snauka.ru/web/77460_files/3(4).gif" alt="" width="345" height="41" /><br />
<img src="http://content.snauka.ru/web/77460_files/3(5).gif" alt="" width="108" height="26" /><br />
<span>Выполним расчет теоретических частот </span><img src="http://content.snauka.ru/web/77460_files/4.gif" alt="" width="24" height="25" /><span>. </span><br />
<span>Последовательно находим для интервала (-8, 2)</span><br />
<img src="http://content.snauka.ru/web/77460_files/4(1).gif" alt="" width="429" height="48" /><br />
<img src="http://content.snauka.ru/web/77460_files/4(2).gif" alt="" width="109" height="24" /><br />
<span>Для интервала (2, 4) находим</span><br />
<img src="http://content.snauka.ru/web/77460_files/4(3).gif" alt="" width="448" height="48" /><br />
<img src="http://content.snauka.ru/web/77460_files/4(4).gif" alt="" width="137" height="24" /><br />
<span>4. Найдем значение </span><span>χ2</span><span>набл</span><br />
<img src="http://content.snauka.ru/web/77460_files/5.gif" alt="" width="349" height="52" /><br />
<span>Поскольку </span><img src="http://content.snauka.ru/web/77460_files/5(1).gif" alt="" width="69" height="26" /><em><span>(24,51&gt;6,0), </span></em><span>то можно считать, что гипотеза о нормальном распределении генеральной совокупности противоречит опытным данным.</span><br />
<span>Определение информативности по </span><em><span>F</span></em><span>-критерию </span><strong><span>Фишера</span></strong><span> основано на степени различия дисперсий значений фактора в выборках класса </span><em><span>A </span></em><span>и класса </span><em><span>B</span></em><span>. Если дисперсия фактора, характеризующего объекты класса </span><em><span>A </span></em><span>- </span><em><span>2AS </span></em><span>существенно не отличается от дисперсии значений фактора у объектов класса </span><em><span>B </span></em><span>- </span><em><span>2BS </span></em><span>, то можно сделать вывод о том, что</span><em><span> </span></em><span>данные совокупности объектов мало чем отличаются друг от друга. В этом случае фактор</span><em><span> </span></em><span>признается малоинформативным для распознавания.</span><br />
<span>Для проверки гипотезы H0: 2 2</span><em><span>A B S </span></em><span>= </span><em><span>S </span></em><span>вычисляется контрольная величина </span><em><span>F</span></em><span>.</span></p>
<div style="text-align: left;" align="center"><img src="http://content.snauka.ru/web/77460_files/5(2).gif" alt="" width="124" height="98" /></div>
<p><span>Вычисленное значение </span><em><span>F </span></em><span>сравнивается с табличным значением </span><em><span>Fтаб(K1, K2), </span></em><span>где </span><em><span>K1</span></em><span>и </span><em><span>K2 </span></em><span>– число степеней свободы соответственно большей и меньшей дисперсий </span><em><span>(K=N-1)</span></em><span>.Если </span><em><span>F </span></em><span>=</span><em><span>Fтаб</span></em><span>, гипотеза </span><em><span>H0 </span></em><span>отвергается, фактор информативен. Если </span><em><span>F &lt;Fтаб</span></em><span>, фактор</span><em><span> </span></em><span>неинформативен.</span><br />
<span>В результате предварительного выбора некоторой совокупности признаков и Определения их вероятностных характеристик, а также распределения вероятностей классов имеется наиболее полное описание каждого из классов. Однако такое полное описание для распознавания может не потребоваться. С одной стороны оно может содержать большую избыточность, с другой – иметь ненужные с точки зрения распознавания сведения.</span><br />
<span>Поэтому возникает задача минимизации признакового пространства. Она представляет собой количественный анализ полученных вероятностных характеристик и окончательное определение совокупности признаков, которые необходимо использовать в процессе распознавания. Основную роль здесь играет то количество информации, которое несет каждый признак. При этом задача минимизации состоит в том, чтобы найти минимальное количество признаков, обеспечивающих заданную надежность распознавания. Это сократит время распознавания и позволит упростить конструкцию распознающей системы.</span></p>
]]></content:encoded>
			<wfw:commentRss>https://web.snauka.ru/issues/2017/01/77460/feed</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
