КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Линейная парная регрессия
Данные о статистической зависимости удобно задавать в виде корреляционной таблицы. Строим корреляционную таблицу (см. Приложение № 1), которая позволяет найти для каждого хi средние значения (условные математические ожидания или групповые средние) переменной Y:. Соединив точки получим ломанную, которая называется эмпирической ломаной регрессией Y по х (Рис. 10.2). Аналогично по точкам () можно построить ломаную регрессию Х по y (Рис. 10.3). Уравнения прямых регрессией можно найти, используя метод наименьших квадратов (МНК), требуя минимальности суммы квадратов невязок (отклонений) точек от искомой прямой =а+bx (10.2.1) Т.е. а и b должны обеспечить минимум функции: откуда Разделив оба уравнения на n, получаем систему нормальных уравнений (10.2.2) где , , , из системы (10.2.2) следует Подставим параметры а и b в уравнение (10.2.1) откуда (10.2.3) (10.2.3) уравнение прямой регрессии Y по х, которое устанавливает линейную зависимость между значениями х и соответствующими им математическими ожиданиями переменной Y, т.е. средними значениями . Коэффициент (10.2.4) Называется выборочным коэффициентом линейной регрессии Y по Х. Он показывает, на сколько единиц в среднем изменяется переменная Y, если переменная Х увеличивается на единицу. Обозначим . Тогда можно представить в виде , где - выборочная дисперсия переменной Х. Аналогично можно найти выборочное уравнение регрессии Х по Y. (10.2.5) (10.2.6) - выборочный коэффициент регрессии, который показывает на сколько единиц в среднем изменяется переменная Х, если переменная Y увеличится на единицу. Сравнение выборочных коэффициентов регрессий и показывает, что они имеют одинаковые знаки, которые определяются знаком величины , т.к. знаменатели обоих коэффициентов положительны и равны и .
С геометрической точки зрения и являются условными угловыми коэффициентами прямых регрессий. А это значит, что обе прямые регрессии одновременно либо возрастают, либо убывают, пересекаясь в точке , координаты которой характеризуют средние значения величин Х и Y (Рис. 10.4). Пример рассмотрен в Приложении Для упрощения расчетов можно воспользовавшись свойствами математического ожидания и дисперсии, перейти к новым переменным.
тогда (10.2.6)
10.3. Выборочный коэффициент корреляции и его свойства. Рассмотрим две случайные величины Х и Y. Для каждой из них получены случайные выборки Х=(х1,х2,…хm) и Y=(y1,y2,…yj,ye). Оценкой уравнений регрессии являются выборочные уравнения регрессий: , (10.3.1) Для установления наличия связи между Х и Y используется, так же как и выборочное математическое ожидание произведения отклонений этих величин от своего математического ожидания. - выборочная ковариация. Если Х и Y – независимые случайные величины, то Х – М(Х) и Y-M(Y) также независимы. В этом случае: Таким образом, - необходимое условие независимости случайной величины Х и Y. Если ковариация , Х и Y не являются независимыми. При этом, чем больше , тем тесней связь между Х и Y. Однако сравнивать для различных случайных величин не представляется возможным, так же как и вообще сделать вывод о значимости из-за размерности этой величины. Поэтому критерием тесноты связи выступает обезразмеренная величина. Если есть основания предполагать, что между Х и Y имеет место линейная связь, то в качестве критерия тесноты связи между ними используется величина: - коэффициент линейной корреляции = В соответствии со свойствами математического ожидания получаем: Учитывая статистический смысл математического ожидания и рассматривая в качестве оценок математические ожидания (средние выборочные значения), получаем:
(10.3.2) Величина r является показателем тесноты связи и называется выборочным линейным коэффициентом корреляции (или просто коэффициентом корреляции). y y
0 x 0 x а) б) Рис. 10.2
На рисунке 10.1 приведены две корреляционные зависимости. Очевидно, что в случае а) зависимость между переменными менее тесная, чем в случае б). Из формул (10.2.4) и (10.2.5) следует или (10.3.3) Т.к. и положительны, то знак коэффициента корреляции совпадает со знаками коэффициентов регрессий. Если r>0 (т.е. >0 и >0), то корреляционная зависимость называется прямой, если r<0, корреляционная зависимость – обратная. При прямой зависимости увеличение одной переменной ведет к увеличению условной средней другой переменной. В случае обратной зависимости увеличение одной переменной ведет к уменьшению условной средней другой переменной. Формула (10.3.2) симметрична относительно двух переменных Х и Y, т.е. она не изменится, если Х и Y поменять местами. Это означает, что rxy=ryx, поэтому индексы можно отбросить и обозначать выборочный коэффициент корреляции просто rb. Из формул (10.3.3) следует или (10.3.4)
Дата добавления: 2014-10-17; Просмотров: 423; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |