14.1.1. Определения некоторых терминов прикладной статистики Факторы - внешние переменные свойства, параметры, при изменении которых изучаемая система реагирует изменением своих внутренних параметров, свойств, характеристик. Часть факторов может быть задана экспериментатором в виде условий, градаций, вариантов - планом эксперимента, прочие факторы считаются неконтролируемыми, случайными, мешающими. Нуль-гипотеза - некоторое утверждение, высказанное для проверки какого-либо предположения об изучаемой системе, доказательства неочевидного факта, закономерности. Примеры типичных нуль-гипотез: - средние вариантов исследуемого фактора различаются только из-за действия множества случайных (неконтролируемых) факторов, фактор не влияет на изучаемую систему (все средние факторы равны между собой); - отсутствует линейная связь между переменной (фактором, признаком) «Х» и переменной «Y», значение коэффициента парной корреляции Rxy не равно нулю только вследствие действия множества случайных факторов; - отсутствует функциональная линейная связь между независимой переменной «Х» и зависимой переменной «Y», значение коэффициента регрессии ненулевое только вследствие действия множества случайных факторов. Контр-гипотеза - утверждение, прямо противоположное нуль-гипотезе. Примеры типичных контр-гипотез: - средние некоторых вариантов (как минимум одна пара средних) исследуемого фактора различаются достоверно, фактор влияет на изучаемую систему; - имеется линейная связь между переменной (фактором, признаком) «Х» и переменной «Y», значение коэффициента парной корреляции Rxy не равно нулю; - имеется функциональная линейная связь между независимой переменной «Х» и зависимой переменной «Y», значение коэффициента линейной регрессии достоверно отличается от нуля. Выборка - конечное множество чисел, отражающее значение некоторого параметра системы в каком-то стационарном состоянии, или близком к стационарному. Чтобы оценить истинное значение параметра, вычисляют его среднее значение и определяют разброс, служащий характеристикой вариабельности, изменчивости параметра, а также степени доверия к этому вычисленному среднему значению. Совокупность - всякое множество отдельных отличающихся друг от друга и в то же время сходных в некоторых существенных отношениях объектов. Единица или член совокупности называется вариантой или датой и обозначается как х1 х2 х3 х4 ….. хп. Различия между вариантами ряда называются вариациями или дисперсией, т.е. рассеянием. Говорят, что параметр варьирует. Дисперсия (вариация, изменчивость) - характеристика параметров любых систем, фундаментальное свойство природы. Чтобы отразить изменчивость параметров в стандартизированном виде, принято вычислять числовую характеристику выборки, названную «дисперсия», и величину σ2: где n - численность выборки; -х - среднее выборки. Средний квадрат отклонений: σ2 = D / (n – 1) Таким образом, дисперсия - это сумма квадратов отклонений от среднего. Обычно для анализа изменчивости используют квадратный корень из среднего квадрата (в просторечии - «сигма», среднеквадратическое отклонение): где D - дисперсия; n - численность выборки и коэффициент вариации, выражаемый в процентах: Cv = σ 100 /-х. Еще одной характеристикой изменчивости параметра является сумма абсолютных отклонений от среднего: где n - численность выборки; -х - среднее выборки, а также среднее абсолютное отклонение: σabs = Dabs / n. Таким образом, дисперсия и стандартное отклонение служат основными мерами вариации. Дисперсионный анализ - изучение действия одного или нескольких факторов на некоторый параметр системы по анализу средних в вариантах фактора (факторов). Существенность изменений средних доказывается критерием Фишера - Снедекора, известным как дисперсионное отношение. Корреляционный анализ - определение связанности, взаимозависимости между переменными характеристиками систем, выражаемой обычно в виде коэффициентов парной корреляции по Пирсону от -1,0 до +1,0. Достоверность значения коэффициента корреляции доказывается критерием Стьюдента на заданном уровне значимости. Регрессионный анализ - определение зависимостей между переменными в виде математических функций (регрессионных уравнений), доказательство достоверности соответствующих функциональных зависимостей по значимости коэффициентов регрессии с помощью критериев Стьюдента и Фишера - Снедекора. |