Регрессионный анализ модели Лекция 02.. Y = A 1 X + A 0 1 2 E i = (Y i Эксп. – Y i Теор. ), i = 1, …, n; E i = Y i – A 0 – A 1 · X i, i = 1, …, n. E i.

Презентация:



Advertisements
Похожие презентации
Лекции 8-9
Advertisements

Проверка
Укажите вид модели: Приведите примеры:
Пример1 Мир
P4P4 X X1X1 X2X2 X3X3 X4X4 Разница между действительным и оцененным значением Y называется остатком. P3P3 P2P2 P1P1 R1R1 R2R2 R3R3 R4R4 ( остаток ) e1e1.
Как изобрести… «велосипед» ? Желание + Идея Изучение существующих моделей Планирование хода исследования Гипотеза Серия измерений.
В практических применениях математики очень часто встречается такая задача: Это могут быть результаты эксперимента, данные наблюдений или измерений, статистической.
1. Какие из чисел 3; –2; 2 являются корнями следующих уравнений: а) 3 х = –6; б) 3 х + 2 = 10 – х; в) х + 3 = 6;
КЛАССИЧЕСКИЙ РЕГРЕССИОННЫЙ АНАЛИЗ. ОБЩАЯ ЛИНЕЙНАЯ МОДЕЛЬ.
1. Постановка задачи аппроксимации 2. Метод наименьших квадратов 3. Линейная аппроксимация Лекция 8.
3.2 МНОЖЕСТВЕННЫЙ РЕГРЕССИОННЫЙ АНАЛИЗ ИДЕЯ х1х1 хPхP Y β 1,…,β Р МОДЕЛЬ ЛИНЕЙНА ОТНОСИТЕЛЬНО ИССЛЕДУЕТСЯ.
МЕТОД НАИМЕНЬШИХ КВАДРАТОВ. СТАТИСТИЧЕСКАЯ ОЦЕНКА.
Кандидат технических наук, доцент Поляков Константин Львович Учебный курс Эконометрика: идентификация, оценивание и анализ статических моделей Лекция 7.
Метод наименьших квадратов Общее описание.
Виды алгоритмов. a x a51220 x Линейный алгоритм.
Дифференцирование суммы, произведения и частного.
Нелинейная парная регрессия. 1. Общие сведения о нелинейных парных регрессионных моделях.
Лекция 6 Линейная регрессия. Простая линейная регрессия.
«Приведенное квадратное уравнение. Теорема Виета».
Решение линейных задач. Найти ошибки: 1. A:= 25+B; 2. 4-B:=A; 3. ABS(A):= B; 4. 4:=B; 5. B:=SQR(A); 6. B:=A; Ошибки в задании 2), 3), 4).
Транксрипт:

регрессионный анализ модели Лекция 02.

Y = A 1 X + A E i = (Y i Эксп. – Y i Теор. ), i = 1, …, n; E i = Y i – A 0 – A 1 · X i, i = 1, …, n. E i 2 = (Y i – A 0 – A 1 · X i ) 2, i = 1, …, n.

Проверка E i = (Y i Эксп. – Y i. Теор ), i = 1, …, n 1 23

S = σ/sin(β) = σ/sin(90° – arctg(A 1 )) = σ/cos(arctg(A 1 )),

Пример iXiXi YiYi Гипотеза: Y = aX + b. E i = Y i – A 0 – A 1 · X i, i = 1, …, n. E i = Y i – b – aX i, i = 1, …, n

4 iXiXi YiYi Xi2Xi2 XiYiXiYi Сумма: Y = 0.78X

5 E i = Y i – b – aX i, i = 1, …, n iXiXi YiYi E i = Y i – 3.65 – 0.78X i Ei2Ei2 103– – – – – F = = = σ = sqrt(9.5080/8) = S = σ/cos(arctg(a)) = = 1.09/cos(arctg(0.78)) = = 1.38.

Y = 0.78X – 1.38 Y = 0.78X

iXiXi YiYi Y = 0.78X i – 1.38Y = 0.78X i Есть попадание? Да Да Да Да Нет Нет Да Да

Линейная множественная модель Y = A 0 + A 1 · X 1 + … + A m · X m. E i = (Y i Эксп. – Y i Теор. ), i = 1, …, n; E i = Y i – A 0 – A 1 · X 1i – … – A m · X mi, i = 1, …, n.