Институт общей генетики им. Н.И. Вавилова РАН Введение в байесовский анализ А.В. Рубанович rubanovich@vigg.ru.

Презентация:



Advertisements
Похожие презентации
5 ноября 2012 г.5 ноября 2012 г.5 ноября 2012 г.5 ноября 2012 г. Лекция 6. Сравнение двух выборок 6-1. Гипотеза о равенстве средних. Парные выборки 6-2.Доверительный.
Advertisements

6 ноября 2012 г.6 ноября 2012 г.6 ноября 2012 г.6 ноября 2012 г. Лекция 5. Сравнение двух выборок 5-1. Зависимые и независимые выборки 5-2.Гипотеза о равенстве.
Курс математической статистики Лекционный материал Преподаватель – В.Н. Бондаренко.
7 ноября 2012 г.7 ноября 2012 г.7 ноября 2012 г.7 ноября 2012 г. Лекция 4. Проверка статистических гипотез 4-1. Гипотеза о доле признака 4-2. Гипотеза.
Лекция 7 Постникова Ольга Алексеевна1 Тема. Элементы теории корреляции
Принятие решений в условиях существования рисков с низкими вероятностями реализации Алексей Гнатюк, стажер Научный руководитель: Галина Ковалишина, руководитель.
Доцент Аймаханова А.Ш.. 1. Статистические гипотезы в медико- биологических исследованиях. 2. Параметрические критерии различий. 3. Непараметрические критерии.
Проверка статистических гипотез Основные понятия и терминология Что такое статистическая гипотеза? Лекция 6.
Точный критерий Фишера Алтынбеков Қ. Қ. Спортивная медицина. Ризедентура.
1 Для самостоятельного решения 1 вариант____ 1. Вероятность рождения мальчика равна 0,49. Найти вероятность того, что среди 100 новорожденных будет ровно.
Наивный байесовский классификатор к.х.н. Варламова Екатерина Владимировна.
Определение вероятности случайного события. Элементы комбинаторики: Перестановки; Размещения; Сочетания.
Алгебра. 9 класс. Открытый урок 6 мая 2001 г. Классическое определение вероятности.
Изучает закономерности массовых случайных явлений.
6 ноября 2012 г.6 ноября 2012 г.6 ноября 2012 г.6 ноября 2012 г. Лекция 2. Доверительные интервалы 2-1. Доверительный интервал для доли 2-2. Доверительный.
Проверка гипотез на примере уравнения регрессии Проверка гипотез и соответствующие статистические выводы являются одними из центральных задач математической.
Цели: усвоить понятие вероятности случайного события (статистический подход); формировать умение оценивать вероятность случайного события.
Behind LDA Часть 1 Кольцов С.Н.. Различия в подходах к теории вероятностей Случайная величина это величина, которая принимает в результате опыта одно.
СТАТИСТИЧЕСКИЕ ИГРЫ Выполнили: Петрук К. Черняк А. Чикиш Ю.
Теория вероятностей и математическая статистика Лекция 1. Введение. Основные понятия теории вероятностей. Элементы комбинаторики.
Транксрипт:

Институт общей генетики им. Н.И. Вавилова РАН Введение в байесовский анализ А.В. Рубанович

Кто боится Томаса Байеса?

Похороны P-value?

Из истории эпидемиологических исследований: вещи, которые вызывают рак (Altman, Simon, JNCI, 1992) И, конечно, мобильные телефоны – наше время! Исследования, времен распространения приборов Электробритвы Холодильники Флуоресцентные светильники Переломы рук (у женщин) Аллергия Содержание певчих птиц Хот-доги Разведение северных оленей Профессия - официант Высокий рост Маленький рост ЛЭП

Из истории эпидемиологических исследований: мифы об AB0 (1917 – 1960 – и по сей день) У субъектов с А более тяжелое похмелье У субъектов с 0 более здоровые зубы Военные с 0 слабохарактерны, а с B более импульсивны Субъекты с B более склонны к преступлениям Аллель 0 более древняя и поэтому ее носители – охотники и мясоеды. Аллель A моложе, ее носители – фермеры и вегетарианцы У субъектов с А более высокий IQ Люди с группой В чаще испражняются Между AB0 и пищеварением – сильная связь: для каждой группы своя диета Никита Хромов-Борисов, СПбГМУ

95% результатов эпидемиологических и ассоциативных генетических исследований никогда не воспроизводятся

Основные причины ложных заключений в эпидемиологических и биомедицинских исследованиях Вера в 5% или «синдром статистической снисходительности» Проклятие победителя (winner's curse) и публикационный сдвиг Множественность сравнений: кошмар Бонферрони Слабые, но «высокозначимые» эффекты в больших выборках: кто боится Томаса Байеса? Сопоставление неоднородных выборок: страты и парадокс Симпсона Сквозь «призму p-value»…

Астрагалы, V тыс. лет до н.э. Бросок Венеры – 5% Традиционный подход к ответу на вопрос: случайно ли то, что мы наблюдаем? р-value «серая зона» неопределенности Н0Н0 Н1Н1 Н 0 – гипотеза об отсутствии различий: наблюдаемый эффект обусловлен случайными причинами H 1 – альтернативная гипотеза: эффект есть, наблюдаемые различия неслучайны Со времен астрагалов: события с вероятностью менее 5% принято считать «маловероятными» «Механистическая дихотомия и сакральные 5% повсеместно процветают. Невзирая на 40 лет критики» Резкая граница? С какой стати? - ? При сравнении выборок формируем: Далее по совокупности данных вычисляем р т.е., т.н. «р-value»

Чем является и чем не является р-value S. Goodmen. A Dirty Dozen: Twelve P-value Misconceptions (2008) Малость р-value не гарантирует высокую вероятность получить аналогичные результаты в повторном эксперименте р-value P(H 0 ), т.е. это не есть вероятность нулевой гипотезы об отсутствии различий

Free! Программа LePrep: Гарантирует ли низкое p-value воспроизводимость результатов? n 1 + n 2 -2p-value Вероятность наблюдать ту же направленность эффектов в повторном эксперименте Вероятность наблюдать те же эффекты с уровнем p-value < 0.05 p-value Вероятность значимых эффектов (p < 0.05) в повторном опыте При p-value из «серой зоны» таких гарантий нет!

Чем является и чем не является р-value S. Goodmen. A Dirty Dozen: Twelve P-value Misconceptions (2008) Малость р-value не гарантирует высокую вероятностью получить аналогичные результаты в повторном эксперименте р-value P(H 0 ), т.е. это не есть вероятность нулевой гипотезы об отсутствии различий Одним словом, р-value – это условная вероятность, но совсем не того, чего нужно! р-value P(H 0 | data), т.е. это не есть вероятность нулевой гипотезы при данном раскладе данных р-value = P(data | H 0 ) Ситуация сходна с «case - control»: мы меряем частоту маркера у больных, но хотели бы знать частоту больных среди носителей маркера T – тестовая «статистика» (t, 2, F и т.п.). При H 0 ее распределение всегда известно: T T data р-value т.е. это вероятность наблюдаемого (или еще более «крутого») расклада данных при условии отсутствия различий Как конвертировать P(data | H 0 ) P(H 0 | data) ? Все наоборот! Почувствуйте разницу: р-value = P(T > T data | H 0 ), точнее и data T data

Условные вероятности в картинках Доля богатых среди умных Доля умных среди богатых > Умные P( | ) Формула перехода Байеса P( | ) = P( ) P( | ) P( ) P( & ) P( ) P( & ) P( ) Богатые & r(, ) - статистически значимая корреляция Обманчивая простота!

Формула Байеса преподносит неожиданности! Пусть детектор лжи не ошибается в 90% случаев, а популяционная частота прирожденных лжецов – 10%. Какова вероятность того, что выявленный детектором лжец, действительно является лжецом? P(Да|Лжец) = P(Нет|Честный) = 0.9; P(Лжец) = 0.1 Дано: P(Лжец|Да) Найти: P(Да|Лжец)P(Лжец) P(Да) == = Более серьезный пример – маммогра`фия: P(Да|Рак) = 0.8; P(Нет|Здоровая) = 0.9; P(Рак) = 0.01 (РМЖ после 40 лет) P(Рак|Да) P(Да|Лжец)P(Лжец) + P(Да|Честный)P(Честный) P(Да|Лжец)P(Лжец) == Показания прибора: Да - Нет 90%? Нет! Это вероятность, того заведомый лжец будет уличен прибором P(Да & Лжец) P(Да & Честный)

может быть еще ниже! может быть мала, но при этом…. p-value = Н 0 – гипотеза об отсутствии различий: наблюдаемый эффект обусловлен случайными причинами H 1 – альтернативная гипотеза: эффект есть, наблюдаемые различия неслучайны При сравнении выборок формируем: Формула Байеса преподносит неожиданности! Более того! может быть мала, но это не гарантирует p-value = и, тем более, малость малость

Фактор Байеса как альтернатива p-value BF Свидетельство в пользу гипотезы H 1 против гипотезы H 0 > 100Убедительное 30 – 100Очень сильное 10 – 30Сильное 3 – 10Умеренное 1 – 3Слабое < 1Против H 1 Байесов фактор: во сколько раз чаще наши данные более вероятны при H 1, чем при H 0 Интерпретация: Ясно, что если BF 1, то говорить о значимости эффектов невозможно

Байесовская революция ( …) Альтернативная статистика Преподобный Томас Байес ( ) Bunhill Fields Burial Ground off City Road, EC1

Байесовская ревизия: 272 эпидемиологические работы с формально значимыми результатами «серая зона» J.P. Ioannidies, 2008, Am J Epidemiol; 168, BF p-value Все результаты с p-value не проходят по критерию BF > 3 Байесовский анализ подтверждает значимость эффектов BF < 1! Это зона справедливости результатов с «точностью до наоборот»

Как это делается: байесов фактор on line Результаты после нажатия: Ввод данных, например, 1 из 100 против 8 из 100 p-value Байесов фактор, точнее 1/BF 1/0.367 = 2.72 < 3

Как это делается: байесов фактор on line Ввод данных: 1 из 100 против 10 из 100 Результаты после нажатия: Байесов фактор, точнее 1/BF 1/0.104 = 9.62 p-value

Итак: 1 из 100 против 8 из 100: p = 0.017; BF = 2.7 < 3 1 из 100 против 10 из 100: p = 0.005; BF = 9.6 слабая значимость эффекта сильная значимость эффекта Может быть байесовский подход просто «более строг»? (для значимости требуются значительно меньшие р-value, чем 0.05 ) Исследуем ситуацию …

Ситуация, типичная для эпидемиологии (или для ассоциативных исследований «case-control») p-valueBF против 5 np-valueBF против n-5n-5n 101 n-10n-1 Среди больных – 5 носителей маркера Среди контрольных лиц – 0 носителей маркера n n Рассмотрим случай равных по объему выборок Результаты классического и байесовского анализа расходятся: BF < 1, хотя p-value = ~ BF убывает, как n -1/2 Табл. сопряженности 2 х 2 p-value почти не зависит от n 0 из 50 против 5 из 50: принимаем Н 1

Осторожно: большие выборки! p-valueBF против 5 np-valueBF против 10 При очень больших выборках ( n 1/p 2 ) возможны ситуации, когда BF < 1 Грубо говоря,, где n - объем выборки.

Осторожно: большие выборки! Высокая значимость отличий частот редких событий может быть обманчивой Пример Контроль: 250 случаев из (частота 0,25%) Экспонированные: 5 случаев из 500 (частота 1%) Относительный риск: RR = 4 Классический подход 2 по Пирсону: p-value = с поправкой Йитса : p-value = Байесов фактор: BF = < 1, т.е. данные более вероятны при условии отсутствия различий Байесовский подход

Как это посчитать самостоятельно? Байесов фактор для таблицы 2 х 2 D M ab cd Здоровые Больные Носители маркера Свободны от маркера E D ab cd Здоровые Больные Экспони- рованные Контроль Частота больных среди экспонированных такая же, как и в контроле Частота носителей маркера среди больных такая же, как среди здоровых ЭпидемиологияCase - control где В(a,b) – т.н. бета-функция

Байесов фактор для таблицы 2 х 2 Вычисления в байесовском анализе всегда громоздки! Вероятно поэтому все началось лишь в 90-е годы где В(a,b) – т.н. бета-функция Вычисление бета-функции Г(x) = EXP(ГАММАНЛОГ(x)) В Excel: On line: И все-таки: откуда берутся все эти жутковатые формулы?

Байесов фактор в простейшем случае (броски монеты) data = последовательность ООРО…ОР, скажем k «орлов» в n бросках nk p-value ( 2 ) BF Здесь - усреднение по всем равновероятным значениям р р f(р)f(р) Результаты классического и байесовского анализа расходятся: BF < 1, хотя p-value = случая, когда частота k/n = 0.46 близка к 0.5 Находим отношение Принимаем Н 0 Принимаем Н 1 Н 0 : р = 1/2 Н 1 : р 1/2 «Честная» монета «Нечестная» монета А теперь представьте, что это соотношение полов

Байесовские оценки Пусть data = выборка объема n, содержащая k мутаций. Что считать оценкой частоты мутаций ( )? Странный вопрос… Классический (частотный) подход: Байесовский подход: (формула Лапласа) Ход вычислений: Здесь - усреднение по всем равновероятным значениям р р f(р)f(р) Байесовский вывод о значимости эффектов может отличаться от частотного в случае больших выборок Байесовская оценка частоты отличается от частотной в случае малых выборок

Байесовские оценки Байесовские оценки лучше частотных при малых n, а также при наличии нулей в таблицах сопряженности E D a0 cd Здоровые Больные Экспони- рованные Контроль В контрольной выборке больных не было Отношение шансов:

Больше, чем статистика Классическая теория вероятности Р(исхода в испытании) = Общее число испытаний Число исходов Но серию испытаний можно провести далеко не всегда! Например, как оценить вероятность того, что … Человечество погибнет от метеоритной атаки Христос не умел читать Гомер был женщиной Байесовский подход Вероятность – это степень доверия и мера нашего незнания «Коэффициент перехода» от априорного знания к апостериорному

Байесовское мышление Нас интересует не P(data | H 0 ) (это фактически p-value), а P(H 0 | data) - вероятность отсутствия различий после наблюдения данного расклада данных. После опыта До опыта Шанс (odd) события А = Вероятность выиграть к вероятности проиграть Введем понятие «шанс»: Апостериорный шанс гипотезы H 1 Априорный шанс гипотезы H 1 BF =. Тогда:

5 поводов вспомнить о Томасе Байесе Значения p-value из «серой» зоны: 0.01 – 0.05 Высокая значимость отличий частот редких событий Если Вы никогда до конца не понимали, что такое p-value BF – Байесов фактор, имеет простой и ясный смысл: во сколько раз наблюдаемые данные более вероятны при наличии различий, чем при отсутствии оных Очень часто именно при таких p-value Байесов фактор BF ~ 1 (или даже < 1), т.е. данные могут наблюдаться, как при нулевой, так и при альтернативной гипотезе Большие объемы выборок При больших выборках, возможны ситуации, когда BF < 1, хотя p-value < 0.01 Малые объемы выборок Оценка частоты p = (k+1)/(n+2) лучше, чем p = k/n Например сравнение «1% vs 0.25%» (относительный риск = 4) может давать BF = 0.8 при p-value = (например, расклад «5 из 500» против «250 из »)

Эту и другие мои лекции можно найти на сайте vigg.ru Слайды доступны всем! Всем спасибо!