Тема 14



14.1.1. Определения некоторых терминов прикладной статистики


Факторы - внешние переменные свойства, параметры, при изменении которых изучаемая система реагирует изменением своих внутренних параметров, свойств, характеристик. Часть факторов может быть задана экспериментатором в виде условий, градаций, вариантов - планом эксперимента, прочие факторы считаются неконтролируемыми, случайными, мешающими.

Нуль-гипотеза - некоторое утверждение, высказанное для проверки какого-либо предположения об изучаемой системе, доказательства неочевидного факта, закономерности. Примеры типичных нуль-гипотез:

- средние вариантов исследуемого фактора различаются только из-за действия множества случайных (неконтролируемых) факторов, фактор не влияет на изучаемую систему (все средние факторы равны между собой);

- отсутствует линейная связь между переменной (фактором, признаком) «Х» и переменной «Y», значение коэффициента парной корреляции Rxy не равно нулю только вследствие действия множества случайных факторов;

- отсутствует функциональная линейная связь между независимой переменной «Х» и зависимой переменной «Y», значение коэффициента регрессии ненулевое только вследствие действия множества случайных факторов.

Контр-гипотеза - утверждение, прямо противоположное нуль-гипотезе. Примеры типичных контр-гипотез:

- средние некоторых вариантов (как минимум одна пара средних) исследуемого фактора различаются достоверно, фактор влияет на изучаемую систему;

- имеется линейная связь между переменной (фактором, признаком) «Х» и переменной «Y», значение коэффициента парной корреляции Rxy не равно нулю;

- имеется функциональная линейная связь между независимой переменной «Х» и зависимой переменной  «Y», значение коэффициента линейной регрессии достоверно отличается от нуля.

Выборка - конечное множество чисел, отражающее значение некоторого параметра системы в каком-то стационарном состоянии, или близком к стационарному. Чтобы оценить истинное значение параметра, вычисляют его среднее значение и определяют разброс, служащий характеристикой вариабельности, изменчивости параметра, а также степени доверия к этому вычисленному среднему значению.

Совокупность - всякое множество отдельных отличающихся друг от друга и в то же время сходных в некоторых существенных отношениях объектов. Единица или член совокупности называется вариантой или датой и обозначается как х1 х2 х3 х4 ….. хп. Различия между вариантами ряда называются вариациями или дисперсией, т.е. рассеянием. Говорят, что параметр варьирует.

Дисперсия (вариация, изменчивость) - характеристика параметров любых систем, фундаментальное свойство природы. Чтобы отразить изменчивость параметров в стандартизированном виде, принято вычислять числовую характеристику выборки, названную «дисперсия», и величину σ2:


где n - численность выборки;

-х - среднее выборки.

Средний квадрат отклонений:

σ2 = D / (n – 1)

Таким образом, дисперсия - это сумма квадратов отклонений от среднего.

Обычно для анализа изменчивости используют квадратный корень из среднего квадрата (в просторечии - «сигма», среднеквадратическое отклонение):

где D - дисперсия;

- численность выборки

и  коэффициент вариации, выражаемый в процентах:

Cv = σ   100 /-х.

Еще одной характеристикой изменчивости параметра является сумма абсолютных отклонений от среднего:


где n - численность выборки;

-х - среднее выборки,

а также среднее абсолютное отклонение:

σabs = Dabs / n.

Таким  образом, дисперсия и стандартное отклонение служат основными мерами вариации.

Дисперсионный анализ - изучение действия одного или нескольких факторов на некоторый параметр системы по анализу средних в вариантах фактора (факторов). Существенность изменений средних доказывается критерием Фишера - Снедекора, известным как дисперсионное отношение.

Корреляционный анализ - определение связанности, взаимозависимости между переменными характеристиками систем, выражаемой обычно в виде коэффициентов парной корреляции по Пирсону от -1,0 до +1,0. Достоверность значения коэффициента корреляции доказывается критерием Стьюдента на заданном уровне значимости.

Регрессионный анализ - определение зависимостей между переменными в виде математических функций (регрессионных уравнений), доказательство достоверности соответствующих функциональных зависимостей по значимости коэффициентов регрессии с помощью критериев Стьюдента и Фишера - Снедекора.