1 НЕЛИНЕЙНАЯ РЕГРЕССИЯ Принцип минимизации суммы квадратов отклонений. Эта процедура состоит из последовательности шагов: 1.Принимаются некоторые правдоподобные.

Презентация:



Advertisements
Похожие презентации
Лекция 7.3 Выбор между линейной и полулогарифмической моделями. Тест Бокса – Кокса.
Advertisements

1 Линейные модели по переменным и параметрам: НЕЛИНЕЙНЫЕ МОДЕЛИ Линейные модели и по переменным и по параметрам. Способы сведения нелинейных моделей к.
Лекция 5.8 Полулогарифмическая модель. 2 Полулогарифмическая модель.
Лекция 8.4 Тест Уайта. 1 Содержательный смысл теста Уайта состоит в следующем: если в модели дисперсия возмущений каким-то, возможно, достаточно сложным.
Лекция 5.7 Линейная в логарифмах модель. Коэффициент эластичности Y X A O 2 Определение коэффициента эластичности.
Лекция 6.3 Dummy- переменные для коэффициентов наклона.
Лекция 7.5 Смещение в оценках коэффициентов, вызванное невключением существенных переменных.
Лекция 9.1 Модели бинарного выбора. 2 Экономистов часто интересуют факторы, определяющие принятие решений индивидами или фирмами. Ниже приведены соответствующие.
Лекция 6.1 Dummy (фиктивные) переменные. Пример использования dummy переменной при наличии двух категорий 1 COST – годовые издержки 74 средних школ в.
Лекция 6.6 Эквивалентность теста Chow и теста о значимости группы dummy - переменных.
Масштаб 1 : Приложение 1 к решению Совета депутатов города Новосибирска от _____________ ______.
1. Определить последовательность проезда перекрестка
Таблица умножения на 8. Разработан: Бычкуновой О.В. г.Красноярск год.

Масштаб 1 : Приложение 1 к решению Совета депутатов города Новосибирска от
Преобразования переменных. Нелинейная регрессия Различают линейные и нелинейные регрессии Нелинейные регрессии делятся на два класса: –нелинейные по независимым.
1 Знаток математики Тренажер Таблица умножения 2 класс Школа 21 века ®м®м.
Лекция 1 Введение.. Опр. эконометрика это наука, которая дает количественное выражение взаимосвязей экономических явлений и процессов.
ЦИФРЫ ОДИН 11 ДВА 2 ТРИ 3 ЧЕТЫРЕ 4 ПЯТЬ 5 ШЕСТЬ 6.
Урок повторения по теме: «Сила». Задание 1 Задание 2.
Транксрипт:

1 НЕЛИНЕЙНАЯ РЕГРЕССИЯ Принцип минимизации суммы квадратов отклонений. Эта процедура состоит из последовательности шагов: 1.Принимаются некоторые правдоподобные исходные значения параметров. 2. Вычисляются предсказанные значения Y по фактическим значениям Х с использованием этих значений параметров. 3. Вычисляются остатки для всех наблюдений в выборке и, следовательно, RSS, т. е. сумма квадратов остатков.

2 4. Вносятся небольшие изменения в одну или более оценок параметров. 5. Вычисляются новые предсказанные значения Y, остатки и RSS. 6. Если RSS меньше, чем прежде, то новые оценки параметров лучше прежних и их следует использовать в качестве новой отправной точки. Принцип минимизации суммы квадратов отклонений

3 7. Шаги 4, 5 и 6 повторяются вновь до тех пор, пока не окажется невозможным внести такие изменения в оценки параметров, которые привели бы к уменьшению RSS. 8. Делается вывод о том, что величина RSS минимизирована и конечные оценки параметров являются оценками по методу наименьших квадратов. Принцип минимизации суммы квадратов отклонений

4 бананы доход (фунтов) ($10,000) хозяйства Y X Z

5 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Численные методы поиска регрессионных коэффициентов для нелинеаризуемых задач на примере модели потребления бананов. Метод нелинейной оптимизации. X Y

6 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Предположим нам известно, что 1 = 12. Поиск 2 на основе критерия минимизации суммы квадратов остатков. Предположим, что 2 = 6. Y X

7 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Строим модели и ищем сумму квадратов остатков. Y X

8 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Строим модели и ищем сумму квадратов остатков. Y X

9 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ RSS=29,17. b 2 = -6 b 2 = -7 X Y Y e e Total29.17 ^

10 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Повторим процедуру, модифицировав значение коэффициента на -7. Y X

11 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ На графике видно, что это приближение лучше. Y X

12 b 2 = -6 b 2 = -7 X Y Y e e 2 Y e e Total НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Вычисленное значение RSS свидетельствует о том же. ^^

13 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Повторяя процедуру далее можно увидеть, что оптимальное решение лежит между -10 и -11. b 2 RSS

14 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Уменьшая интервал и шаг можно получить новое приближение на интервале и С точностью до 0,01 получаем приближение 10,08. Повторяя эту же процедуру по двум параметрам можно получить решение с заданной точностью. b 2 RSS

15 ТЕСТЫ КОКСА-БОКСА Проблема сравнения качества альтернативных регрессионных моделей. Когда альтернативные регрессионные модели имеют одинаковые переменные, то лучшая выбирается по критерию максимума R 2. Что делать, когда переменные различны, как например в линейной и логарифмической моделях.

16 ТЕСТЫ КОКСА-БОКСА Среднее арифметическое логарифма Y сводится к среднему геометрическому Y. Среднее в одной модели связано со средним в другой. Усреднение позволяет сравнивать модели между собой по остаткам.

17 ТЕСТЫ КОКСА-БОКСА Нормировка значений зависимых переменных в полулогарифмической модели по Методу Зарембки.

18 ТЕСТЫ КОКСА-БОКСА Сравнение нормированных моделей Y* and log e Y по среднеквадратичным отклонениям (RSS). Логарифм отношения остатков имеет χ 2 -распределение. Если χ>χ 2 – критическое при заданном пороге вероятности, то модель с меньшим RSS будет лучше.

19. sum LGEARN Variable | Obs Mean Std. Dev. Min Max LGEARN | EARNSTAR=EARNINGS/exp( ) LGEARNST=ln(EARNSTAR) ТЕСТЫ КОКСА-БОКСА Найдем среднее для LGEARN и обозначим LGEARNST=ln( EARNSTAR ).

20. reg EARNSTAR S Source | SS df MS Number of obs = F( 1, 568) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = EARNSTAR | Coef. Std. Err. t P>|t| [95% Conf. Interval] S | _cons | ТЕСТЫ КОКСА-БОКСА Найдем регрессионную зависимость нормированного значения EARNSTAR от S и определим RSS.

21. reg LGEARNST S Source | SS df MS Number of obs = F( 1, 568) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = LGEARNST | Coef. Std. Err. t P>|t| [95% Conf. Interval] S | _cons | ТЕСТЫ КОКСА-БОКСА То же сделаем для нормированной переменной LGEARNST.

22 ТЕСТЫ КОКСА-БОКСА Значение статистики Оно существенно выше 2 с 1 степенью свободы на 0.1% уровне, исходя из чего можно утверждать о значимости предпочтения полулогарифмической модели линейной.