1 Занятие 6 Корреляции. Регрессионный анализ1 Занятие 6 Корреляции. Регрессионный анализ.

Презентация:



Advertisements
Похожие презентации
Занятие 5 Корреляции. Регрессионный анализ.
Advertisements

Теория статистики Корреляционно-регрессионный анализ: статистическое моделирование зависимостей Часть 1. 1.
Лекция 7 Постникова Ольга Алексеевна1 Тема. Элементы теории корреляции
Лекция 1 Введение.. Опр. эконометрика это наука, которая дает количественное выражение взаимосвязей экономических явлений и процессов.
6 ноября 2012 г.6 ноября 2012 г.6 ноября 2012 г.6 ноября 2012 г. Лекция 5. Сравнение двух выборок 5-1. Зависимые и независимые выборки 5-2.Гипотеза о равенстве.
1. Определить последовательность проезда перекрестка
Урок-обобщение (7 класс – алгебра) МОУ "СОШ 45 г. Чебоксары" Кабуркина М. Н.1.
АНАЛИЗ ДАННЫХ НА КОМПЬЮТЕРЕ. Регрессионный анализ.

5 ноября 2012 г.5 ноября 2012 г.5 ноября 2012 г.5 ноября 2012 г. Лекция 6. Сравнение двух выборок 6-1. Гипотеза о равенстве средних. Парные выборки 6-2.Доверительный.
Таблица умножения на 8. Разработан: Бычкуновой О.В. г.Красноярск год.
1 Знаток математики Тренажер Таблица умножения 2 класс Школа 21 века ®м®м.
3 Законы Кирхгофа справедливы для линейных и нелинейных цепей при постоянных и переменных напряжениях и токах.
Урок повторения по теме: «Сила». Задание 1 Задание 2.
Рисуем параллелепипед Известно, что параллельная проекция тетраэдра, без учета пунктирных линий, однозначно определяется заданием проекций его вершин (рис.
Набор игр Создание игровых ситуаций на уроках математики повышает интерес к математике, вносит разнообразие и эмоциональную окраску в учебную работу, снимает.
Лекция по МОП ТЕМА: Измерение связи двух признаков.
Фрагмент карты градостроительного зонирования территории города Новосибирска Масштаб 1 : 6000 Приложение 7 к решению Совета депутатов города Новосибирска.
Проверка качества спецификации модели. Качество спецификации модели Под качеством спецификации модели понимается: - качество выбора функции уравнения.
Лекция 6 Линейная регрессия. Простая линейная регрессия.
Транксрипт:

1 Занятие 6 Корреляции. Регрессионный анализ

2 одна зависимая переменная. До сих пор нас в выборках интересовала только одна зависимая переменная *. Мы изучали, отличается ли распределение этой переменной в одних условиях от распределения той же переменной в других условиях (скажем, сравнивали разные группы в ANOVA). ДВЕ Настало время обратиться к ситуации, когда зависимых переменных будет ДВЕ и более. Нас интересует вопрос, в какой степени эти переменные связаны между собой. Это могут быть измерения одной особи или связанных пар. КОРРЕЛЯЦИИ (correlation) * кроме MANOVA

3 массахвоста Мы исследуем сусликов. И хотим узнать, связаны ли между собой у них масса и длина хвоста? Переменные – 1. масса; 2. длина хвоста. Корреляции

4 КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ характеризует силу связи между переменными. ЭТО ПРОСТО ПАРАМЕТР ОПИСАТЕЛЬНОЙ СТАТИСТИКИ Большой коэффициент корреляции между массой тела и длиной хвоста позволяет нам предсказывать, что у большого суслика, скорее всего, и хвост будет длинным Вопрос: в какой степени две переменные СОВМЕСТНО ИЗМЕНЯЮТСЯ? (т.е., можно ли предполагать, что если у особи одна переменная принимает большое значение, то и значение второй переменной будет большим, или, наоборот, маленьким) Корреляции

5 Коэффициент корреляции 1. Может принимать значения от -1 до +1 2.Знакнаправление связи 2.Знак коэффициента показывает направление связи (прямая или обратная) Абсолютная величинасилу 3. Абсолютная величина показывает силу связи парах 4. всегда основан на парах чисел (измерений 2-х переменных от одной особи или 2-х переменных от разных, но связанных особей) Корреляции r – в случае, если мы характеризуем ВЫБОРКУ - если мы характеризуем ПОПУЛЯЦИЮ

6 1.r=1.0: если Петя высокого роста, значит, Гриша тоже высокий, это не предположение, а факт. 2.r=0.7: если Петя высокий, то, скорее всего, Гриша тоже высокий. 3.r=0.0: если Петя высокий, то мы… не можем сказать росте Гриши НИЧЕГО. Рост братьев: коэффициент корреляции r -? Петя Гриша Корреляции

7 Скаттерплот (= диаграмма рассеяния; scatterplot, scatter diagram) Две характеристики: – наклон (направление связи) и ширина (сила связи) воображаемого эллипса

8 Корреляции r=0.90 r=-0.90 r=0.00 r=0.40

9 Коэффициент корреляции Пирсона (Pearson product-moment correlation coefficient r) Корреляции Karl Pearson (1857 –1936 )

10 стандартное отклонение для хвоста стандартное отклонение для веса Коэффициент корреляции Пирсона суслик вес хвост Дима Гриша Миша Коля Федя Рома ,7168,2 для каждого X и Y (для каждого суслика) число строк (сусликов) Корреляции z – оценки (см. занятие 1) Это одна из нескольких эквивалентных формул для коэффициента корреляции Пирсона

11 параметр ВЫБОРКИ параметр ПОПУЛЯЦИИ Всё как для других параметров описательной статистики: среднего, дисперсии, и т.д.! Корреляции Что определяет ?

12 Чем определяются знак и величина коэффициента корреляции? здесь и X, и Y больше среднего: их произведение >0 здесь и X, и Y меньше среднего: их произведение >0 здесь X больше среднего, а Y меньше: их произведение

13 нулю связи между переменными нет Создаётся впечатление, что близкий к нулю коэффициент корреляции говорит о том, что связи между переменными нет или почти нет. НО это не всегда так, есть исключения. Здесь и впрямь её нет Корреляции

14 1. Коэффициент корреляции Пирсона оценивает только линейную связь переменных! И он не покажет нам наличие нелинейной связи r=0.00 Здесь связь переменных есть, и она очень сильная, но r=0.00 Корреляции Факторы, влияющие на коэффициент корреляции

15 Корреляции

16 2. Необходимо, чтобы у переменных была значительная изменчивость! Если сформировать выборку изначально однотипных особей, нечего надеяться выявить там корреляции. Корреляции

17 I'm not an outlier; I just haven't found my distribution yet! Ronan Conroy аутлаер 3. Коэффициент корреляции Пирсона очень чувствителен к аутлаерам. Корреляции

18 Важное замечание: Корреляция совершенно не подразумевает наличие причинно-следственной связи! Она ВООБЩЕ НИЧЕГО о ней НЕ ГОВОРИТ (даже очень большой r) Корреляции

19 Коэффициент корреляции Пирсона – параметр выборки. Можем ли мы на основе него судить о популяции? Просто глядя на коэффициент – НЕТ. Correlation between each x and y = Корреляции

20 Корреляции H 0 H 0 : ρ=0 H 1 : H 1 : ρ0 масса хвоста Связаны ли у сусликов масса тела и длина хвоста? (альтернативная гипотеза может быть односторонней) Мы хотим оценить коэффициент корреляции в популяции.

21 Корреляции Статистика = параметр выборки – параметр популяции стандартная ошибка параметра выборки стандартная ошибка коэффициента корреляции

22 Pearson product-moment correlation coefficient r

23 Отвергаем Н 0 : Оказалось, что масса тела у сусликов положительно связана с длиной хвоста. Коэффициенты a и b

24 Бывают задачи, когда нам необходимо получить МАТРИЦУ КОРРЕЛЯЦИЙ (для многомерных методов анализа)

25 Можно сравнить два коэффициента корреляции от двух выборок Для двумерного нормального распределения

26 Корреляции В статьях обычно приводят сам коэффициент корреляции Пирсона ( значение t не столь обязательно ). Он сам и является показателем практической значимости (effect size) корреляции. Cohen, 1988: ρ = слабая корреляция; ρ = 0.3 – корреляция средней силы; ρ = сильная корреляция.

27 Требование к выборке для тестирования гипотезы о коэффициенте корреляции Пирсона: 1. Для каждого X значения Y должны быть распределены нормально, и для каждого Y все X должны иметь нормальное распределение - частота значение признака Корреляции двумерное нормальное распределение двумерное нормальное распределение (bivariate normal distribution) 2. Должно соблюдаться требование гомогенности дисперсии X для каждого Y и наоборот.

28 r=0.7: если Петя высокий, то, скорее всего, Гриша тоже высокий. Но можем ли мы предсказать, насколько высокий? Сам коэффициент корреляции этого нам не скажет. Ответ нам даст РЕГРЕССИОННЫЙ АНАЛИЗ. Рост братьев. Петя Гриша РЕГРЕССИОННЫЙ АНАЛИЗ

29 Регрессионный анализ Регрессионный анализ – инструмент для количественного предсказания значения одной переменной на основании другой. линия регрессии Для этого в линейной регрессии строится прямая – линия регрессии. Простая линейная регрессия: Даёт нам правила, определяющие линию регрессии, которая ЛУЧШЕ ДРУГИХ предсказывает одну переменную на основании другой (переменных всего две). По оси Y располагают переменную, которую мы хотим предсказать (зависимую, dependent), а по оси Х – переменную, на основе которой будем предсказывать (независимую, independent). Предсказанное значение Y обычно обозначают как Регрессии

30 То есть, РЕГРЕССИЯ (regression) РЕГРЕССИЯ (regression) – предсказание одной переменной на основании другой. Одна переменная – независимая (independent), а другая – зависимая (dependent). Пример: чем больше еды съедает каждый день детёныш бегемота, тем больше у него будет прибавка в весе за месяц КОРРЕЛЯЦИЯ (correlation) КОРРЕЛЯЦИЯ (correlation) – показывает, в какой степени две переменные СОВМЕСТНО ИЗМЕНЯЮТСЯ. Нет зависимой и независимой переменных, они эквивалентны. Пример: длина хвоста у суслика коррелирует положительно с его массой тела ЭТО НЕ ОДНО И ТО ЖЕ! Регрессии

31 Мы изучаем поведение молодых бегемотов в Африке. Мы хотим узнать, как зависит прибавка в весе за месяц от количества пищи, съедаемой в день, у этих зверей? две У нас две переменные – 1. кол-во съедаемой в день пищи, кг (independent); 2. прибавка в весе за месяц, кг (dependent) 1 кг 3 кг в день 15 кг в день Регрессии

32 Мы ищем прямую, которая наилучшим образом будет предсказывать значения Y на основании значений Х. прибавка в весе в месяц Масса съеденной пищи в день Регрессии прибавка в весе в месяц Масса съеденной пищи в день прибавка в весе в месяц Масса съеденной пищи в день

33 Простая линейная регрессия (linear regression) зависимая Y – зависимая переменная независимая X – независимая переменная a и b - коэффициенты регрессии b – характеризует НАКЛОН прямой (slope); это самый важный коэффициент; a – определяет точку пересечения прямой с осью OY; не столь существенный (intercept). Пояснить размерность b и a Регрессии Это уравнение регрессии для ВЫБОРКИ. уравнение для популяции

34 Задача сводится к поиску коэффициентов a и b. коэффициент корреляции Пирсона стандартные отклонения для X и Y Линия регрессии всегда проходит через точку, то есть через середину графика. b – определяет, насколько изменится Y на единицу X; имеет тот же знак, что и r. Пример с кол-вом удобрения на каждый кг помидоров Регрессии

35 Прибавка в весе в месяц, кг X Y Регрессии Масса съеденной пищи в день

36 Если r=0.0, линия регрессии всегда горизонтальна. Чем ближе r к нулю, тем труднее на глаз провести линию регрессии. А чем больше r, тем лучше предсказание. предсказанное Yближе к среднему Важная особенность нашего предсказания: предсказанное значение Y всегда ближе к среднему значению, чем то значение X, на основе которого оно было предсказано – регрессия к среднему. Пример про Dr. Nostat, который отобрал 100 самых глупых учеников, подверг их специальной программе и потом протестировал повторно, и их IQ оказался в среднем выше. Пример про очень умную 5-летнюю девочку Регрессии

37 Регрессии Линия регрессии в стандартной форме a = 0, b = r (математическое объяснение регрессии к среднему)

38 Ошибка предсказания (residual) = «остатки» e положительно для точек над прямой и отрицательно для точек под прямой. Ошибка предсказания и поиск «лучшей» линии Регрессии прибавка в весе в месяц Масса съеденной пищи в день Очевидно, что точки не лежат на самой линии регрессии. Для популяции Для выборки важно: нельзя пытаться предсказывать Y на основе значений Х, лежащих за пределами размаха Х в выборке.

39 Метод наименьших квадратов: общая сумма квадратов ошибок (residuals) была наименьшей. линию регрессии подбирают такую, чтобы общая сумма квадратов ошибок (residuals) была наименьшей. - минимальна Регрессии Как определить «лучшую» линию регрессии? - residual sum of squares = residual SS

40 Регрессии В регрессионном анализе, как и в ANOVA, используют разные суммы квадратов отклонений (SS) для разных источников изменчивости, и на их основе тестируют гипотезы. Н 0 : β = 0 Н 1 : β 0 Для каждого SS считают соответствующий MS = SS/DF (df=1 и df=n-2) Можно тестировать гипотезу и о том, что intercept ( ) = 0

41 Регрессии На самом деле, если r достоверно отличается от нуля, то и β 0!. То есть, если мы отвергаем H 0 о том, что r=0, то нулевая гипотеза о коэффициенте β отвергается автоматически. Эту же гипотезу можно протестировать с помощью t- статистики: Причём t 2 = F

42 Регрессии Коэффициент детерминации r – коэффициент корреляции, r 2 = R 2 Показывает, какую долю изменчивости (буквально, её даже можно выразить в процентах) зависимой переменной (Y) объясняет независимая переменная (регрессионная модель)

43 Регрессии Доверительный интервал для значений зависимой переменной: строится для каждого значения X, причём наименьшая ошибка получается для среднего Y.

44 Регрессии Сравнение двух (и более) уравнений линейной регрессии 1.Сравнение коэффициентов наклона b 1 b 2 2.Сравнение коэффициентов сдвига a 1 и a 2 3.Сравнение двух линий регрессии в целом (предполагается, что если линии для 2-х выборок у нас сильно различаются, и мы объединим выборки, то общая линия по этим двум выборкам будет хуже описывать изменчивость, остаточная дисперсия будет больше) – на основе F-критерия На основе критерия Стьюдента линии регрессии

45 Регрессии Множественная линейная регрессия и корреляция (multiple regression) Простая линейная регрессия: одна зависимая переменная и одна независимая. Множественная регрессия: исследуется влияние НЕСКОЛЬКИХ независимых переменных на ОДНУ зависимую. Множественная корреляция: исследуется взаимосвязь нескольких переменных, среди которых невозможно выделить зависимую.

46 Регрессии Например, мы хотим узнать, как на прибавку в весе у бегемотов (1 зависимая переменная) влияют: средняя масса пищи, съедаемой в день; продолжительность сна в сутки; подвижность бегемота (км/день) (3 независимых непрерывных переменных).

47 Регрессии Уравнение регрессии: для популяции для выборки Это уже не прямая, это уже либо плоскость (для 3-х переменных), либо пространство.

48 Регрессии Тестирование гипотез для множественной регрессии: Если для простой регрессии можно было проверить только гипотезу относительно коэффициента корреляции, в множественной регрессии без SS, MS и F не обойтись – этот анализ тоже называется ANOVA

49 Регрессии Коэффициент детерминации (coefficient of determination) Считается потому же принципу, что и для простой регрессии, и тоже показывает, какую долю общей изменчивости зависимой переменной объясняет модель, т.е., совместное влияние всех независимых переменых. Multiple correlation coefficient: аналогичен коэффициенту корреляции Пирсона Adjusted coefficient of determination: лучше, чем просто R 2, так как не увеличивается с ростом кол-ва переменных в модели

50 Регрессии Добавление переменных в модель: SS regression увеличивается, поэтому R 2 растёт. При этом F может уменьшаться. Для каждой переменной по отдельности можно протестировать гипотезу - Partial regression coefficients.

51 Регрессии Multicollinearity = ill-conditioning У нас много переменных, поэтому расчёт коэффициентов и статистик сопряжён с операциями над матрицами. Если какие-то независимые переменные сильно коррелируют между собой, возникает принципиальная проблема в расчётах (матрицы оказываются вырожденными) – коэффициенты регрессии не могут быть рассчитаны. Признаки: При удалении (добавлении) какой-либо переменной принципиально меняются коэффициенты при других переменных; общее F для всей модели достоверно, а отдельные t-тесты для каждой переменной – нет; при пошаговом анализе выбирая разные способы анализа мы получаем разные результаты. Что делать? Искать коррелирующие переменные и исключать одну и них из модели.

52 Регрессии Выбор «лучших» независимых переменных Как выбрать лучшую модель, чтобы наименьшим числом независимых переменных описать набольшую долю изменчивости Y? Используют пошаговые модели: Backward elimination – постепенное удаление переменных из модели. Forward selection – постепенное добавление перменных в модель Смешанный пошаговый метод анализа.

53 Simple linear regression

54 linear regression У бегемотов прибавка в весе зависела от этих переменных

55 Коэффициенты наклона в стандартной форме Часто «остатки» используют как самостоятельную переменную Коэффициенты a и b

56

57

58 Требования к выборке для проведения регрессионного анализа линейной. 1.Ожидаемая зависимость переменной Y от X должна быть линейной. нормальное распределение 2.Для любого значения X i Y должна иметь нормальное распределение, и residuals тоже должны быть распределены нормально. одинаковую дисперсию 3.Для любого значения X i выборки для Y должны иметь одинаковую дисперсию (homogeneity). независимы 4.Для любого значения X i выборки для Y должны быть независимы друг от друга. 5.Размер выборки должен быть не меньше, чем в 10 раз превосходить число переменных в анализе (лучше – в 20 раз). 6.Следует исключить аутлаеры Регрессии

59 нормальное распределение Для любого значения X i Y должна иметь нормальное распределение Например, прибавка в весе для всех бегемотов, съедавших по 20 кг в день имеет нормальное распределение 20 кг в день Регрессии

60 Нелинейная регрессия Регрессии экспоненциальный рост Иногда связь между зависимой и независимой переменной нелинейная. Например: асимптотическая регрессия логистический рост Отдельный случай – полиномиальная регрессия. В статистке каждый X m обозначают как новую переменную и дальше анализируют почти как линейную модель.

61 В случае, если наши переменные связаны друг с другом принципиально не линейной зависимостью: 1.можно трансформировать данные и привести зависимость к линейной ( логарифмирование, извлечение квадратного корня и пр. ); 2.Можно предположить (или угадать) функцию, которая их связь отражает и потом сравнить данные с ней Регрессии

62 ANCOVA Модель, когда исследуется действие и группирующей, и непрерывной независимых переменных на непрерывную зависимую переменную Пример: мы анализируем влияние типа пищи (группирующая независимая) и уровня кортикостероидов в крови (непрерывная независимая) на массу тигров (непрерывная зависимая). Комбинированный тип анализа – ANOVA + регрессионный анализ = ANCOVA (analysis of covariance)

63 ANCOVA: прибавка в весе у бегемотов в разных типах местообитания

64 Тип местообитания не влиял на прибавку в весе, она зависела только от длительности кормления.

65 Выбор модели в GLM Независимые переменныеЗависимые переменные Модель Одна группирующаяОдна непрерывнаяOne-way ANOVA Много группирующихОдна непрерывнаяFactorial ANOVA (two-, multiway). Main effect ANOVA Одна или много группирующих Много непрерывных MANOVA (multivariate ANOVA) Одна непрерывная Simple regression Много непрерывныхОдна непрерывнаяMultiple regression Одна группирующая (или много) + одна непрерывная (или много) Одна непрерывнаяANCOVA «Много» = 2 и больше

66 1. исследователь решил узнать, как зависит размер дома у семьи от дохода семьи (в год). Собрал данные от 50 семей. Н 0 ? Статистический критерий? Как изменится результат теста, если доходы семей увеличатся каждая на 5000$ в год? 2. педиатры изучают прибавку в весе у младенцев (её оценивают как разницу в массе ребёнка в 2 мес и при рождении). При этом, в их выборке есть дети, которые вскармливаются искусственно, а есть те, которые находятся на грудном вскармливании. Кроме того, некоторые матери кормят младенцев по требованию, другие же – строго по расписанию. Влияют ли тип пищи и распорядок вскармливания на прибавку в весе? Н 0 ? Статистический критерий? 3. владелец бассейна думает, что количество хлора, которое ежедневно затрачивается на то, чтобы содержать бассейн в чистоте, зависит от температуры воздуха и дня недели. Он стал отмечать, сколько каждый раз у него уходит хлора на очистку, и взял из газет данные о дневных температурах. Так он делал в течение полугода. Зависит ли количество хлора от температуры и дня недели? Н 0 ? Статистический критерий?

67 Насколько хорошо «лучшая» линия регрессии предсказывает Y? Чем меньше стандартное отклонение ошибок e i (standard error of estimate), тем точнее предсказание (потому, что оно напрямую зависит от размера самих ошибок). зависит от квадрата коэффициента корреляции Регрессии