Лекция 9.1 Модели бинарного выбора. 2 Экономистов часто интересуют факторы, определяющие принятие решений индивидами или фирмами. Ниже приведены соответствующие.

Презентация:



Advertisements
Похожие презентации
Лекция 5.8 Полулогарифмическая модель. 2 Полулогарифмическая модель.
Advertisements

Лекция 6.1 Dummy (фиктивные) переменные. Пример использования dummy переменной при наличии двух категорий 1 COST – годовые издержки 74 средних школ в.
Лекция 6.3 Dummy- переменные для коэффициентов наклона.
Лекция 5.7 Линейная в логарифмах модель. Коэффициент эластичности Y X A O 2 Определение коэффициента эластичности.
Лекция 7.5 Смещение в оценках коэффициентов, вызванное невключением существенных переменных.
Лекция 5.9 Мультиколлинеарность. 1 Теоретическая мультиколлинеарность данных – явление, наблюдаемое при нарушении условий теоремы Гаусса – Маркова об.
Лекция 8.4 Тест Уайта. 1 Содержательный смысл теста Уайта состоит в следующем: если в модели дисперсия возмущений каким-то, возможно, достаточно сложным.
Лекция 7.3 Выбор между линейной и полулогарифмической моделями. Тест Бокса – Кокса.
Лекция 6.6 Эквивалентность теста Chow и теста о значимости группы dummy - переменных.
Метод наименьших квадратов В математической статистике методы получения наилучшего приближения к исходным данным в виде аппроксимирующей функции получили.
АНАЛИЗ ДАННЫХ НА КОМПЬЮТЕРЕ. Регрессионный анализ.
Количественные методы в менеджменте. Лекция 3, Модели дискретного выбора.
Метод наименьших квадратов УиА 15/2 Айтуар А.. В математической статистике методы получения наилучшего приближения к исходным данным в виде аппроксимирующей.
Лекция 1 «Введение». Опр. эконометрика это наука, которая дает количественное выражение взаимосвязей экономических явлений и процессов. Специфической.
1 НЕЛИНЕЙНАЯ РЕГРЕССИЯ Принцип минимизации суммы квадратов отклонений. Эта процедура состоит из последовательности шагов: 1.Принимаются некоторые правдоподобные.
Лекция 2 – Идентификация закона распределения вероятностей одномерной случайной величины 2.1. Основные определения 2.2. Этапы обработки данных одномерной.
МЕТОД НАИМЕНЬШИХ КВАДРАТОВ. СТАТИСТИЧЕСКАЯ ОЦЕНКА.
Лекция 8.1 Гетероскедастичность. 1 X Y = X Y 2 Одно из условий теоремы Гаусса – Маркова состоит в том, что возмущения u имеют нулевое математическое.
1 МНОЖЕСТВЕННЫЙ РЕГРЕССИОННЫЙ АНАЛИЗ ПЛАТА ASVABC S 1 ПЛАТА = S + 3 ASVABC + u Геометрическая интерпретация множественной регрессионной модели с.
Статистическое моделирование экспериментального плана Лекция 3.
Транксрипт:

Лекция 9.1 Модели бинарного выбора

2 Экономистов часто интересуют факторы, определяющие принятие решений индивидами или фирмами. Ниже приведены соответствующие примеры. Почему одни люди поступают в вузы, а другие нет? Почему одни женщины работают или ищут работу, а другие нет? Почему одни люди покупают жилье, а другие арендуют? Почему одни люди мигрируют, а другие нет?

3 Модели бинарного выбора Модели, разработанные для ответа на подобные вопросы, называются моделями бинарного выбора, поскольку зависимые переменные Y в таких моделях принимают два значения (чаще всего 1 и 0, 1 – если событие произошло и 0 иначе).

1212 Найдем математическое ожидание Y i. Линейная вероятностная модель

4 Если мы будем оценивать модель с качественной зависимой переменной, как и ранее, с помощью МНК, мы получим указанную выше модель, называемую линейной вероятностной моделью. Линейная вероятностная модель

5 XXiXi X i y, p Графическая интерпретация Линейная вероятностная модель 1

Почему некоторые получают высшее образование, а остальные – не получают? 6 Ответим на поставленный вопрос с помощью линейной вероятностной модели. Линейная вероятностная модель

. g GRAD = 0. replace GRAD = 1 if S > 11 (509 real changes made). reg GRAD ASVABC Source | SS df MS Number of obs = F( 1, 538) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = GRAD | Coef. Std. Err. t P>|t| [95% Conf. Interval] ASVABC | _cons | Линейная вероятностная модель 7 Создадим переменную GRAD, равную 1, если индивид учится более 11 лет.

. g GRAD = 0. replace GRAD = 1 if S > 11 (509 real changes made). reg GRAD ASVABC Source | SS df MS Number of obs = F( 1, 538) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = GRAD | Coef. Std. Err. t P>|t| [95% Conf. Interval] ASVABC | _cons | Результаты оценки регрессии GRAD на ASVABC. Полученную оценку коэффициента наклона можно интерпретировать следующим образом: каждый дополнительный балл в обобщенных результатах тестов ASVABC увеличивает вероятность получения высшего образования на 0.007,т.е. на 0.7%. Линейная вероятностная модель

. g GRAD = 0. replace GRAD = 1 if S > 11 (509 real changes made). reg GRAD ASVABC Source | SS df MS Number of obs = F( 1, 538) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = GRAD | Coef. Std. Err. t P>|t| [95% Conf. Interval] ASVABC | _cons | Линейная вероятностная модель Оценка свободного члена не имеет содержательной экономической интерпретации. Если бы результаты тестирования ASVABC индивида равнялись 0, то вероятность получения высшего образования была бы равна Однако в выборке не было индивидов с результатами тестов 0.

1010 Однако линейная вероятностная модель имеет ряд серьезных недостатков, о которых будет сказано далее. Линейная вероятностная модель

1 Как обычно для линейной модели, значение независимой переменной может быть представлено в виде суммы детерминированного и случайного членов. Линейная вероятностная модель

1313 Поскольку Y принимает только два значения для каждого наблюдения i, то и u i принимает только два значения. Если Y i равно 1, то u i равно (1 – 1 – 2 X i ). Если Y i равно 0, то u i равно (– 1 – 2 X i ). Линейная вероятностная модель

XXiXi X i Y, p Линейная вероятностная модель На рис. изображены два возможных значения случайного члена. Распределение случайного члена не только не является нормальным, но даже не непрерывным. A B X i 1 – 1 – 2 X i

XXiXi X i Y, p Линейная вероятностная модель 1 A 1 – 1 – 2 X i B X i 1515 Можно показать, что дисперсия случайного члена u i равна ( X i )(1 – 1 – 2 X i ), т.е. зависит от X. Таким образом, имеет место проблема гетероскедастичности.

XXiXi X i Y, p Линейная вероятностная модель 1 A B X i 1616 Одним из главных недостатков линейной вероятностной модели является следующий : оцененные значения вероятности могут оказаться больше 1 или меньше 0. 1 – 1 – 2 X i