class: middle, left, inverse, title-slide .title[ # Дисперсионный анализ ] .subtitle[ ## Основы биостатистики, осень 2022 ] .author[ ### Марина Варфоломеева ] --- - Однофакторный дисперсионный анализ - Условия применимости дисперсионного анализа - Запланированные сравнения - Пост хок тесты - Фиксированные и случайные факторы - Ошибка измерения, воспроизводимость --- ## Пример: Мелатонин как регулятор циркадного ритма После джет-лага режим выравнивается, когда глаза привыкают к ритму освещения на новом месте. Мелатонин: - регулятор суточного ритма - вырабатывается ночью - свет снижает выработку --- ## Проверка сомнительного результата Одно исследование показало, что продукцию мелатонина можно регулировать, освещая внутреннюю сторону коленей (Campbell, Murphy, 1998). Проверка (Wright, Czeisler, 2002): .pull-left[ 3 группы людей (22 чел.) будили ночью и 3 часа - освещали ярким светом глаза - освещали ярким светом колени - не освещали ничего (контроль) По уровню продукции мелатонина регистрировали сдвиг циркадного ритма (в часах). <br/> Влияет ли экспериментальная процедура (группа) на сдвиг циркадного ритма? ] -- .pull-right[ <img src="19-anova_files/figure-html/unnamed-chunk-1-1.png" width="432" /> ] ??? Путешествие в другой часовой пояс может вызывать джет-лаг. Но суточный ритм выравнивается по мере того, как глаза привыкают к ритму освещения на новом месте. Мелатонин — один из регуляторов суточного ритма. Он вырабатывается эпифизом ночью, а избыток света снижает его выработку. Когда-то одно исследование показало, что продукцию мелатонина можно регулировать, освещая внутреннюю сторону коленей (Campbell, Murphy, 1998). Позже результаты перепроверили (Wright, Czeisler, 2002). 22 человека разделили случайным образом на 3 группы. Их будили ночью, а потом 3 часа - освещали ярким светом глаза - освещали ярким светом обратную сторону коленей - не освещали ничего (контроль) Регистрировали сдвиг циркадного ритма (в часах) по уровню продукции мелатонина. --- ## Дисперсионный анализ <img src="19-anova_files/figure-html/unnamed-chunk-2-1.png" width="432" /> __Дисперсионный анализ__ (analysis of variance, ANOVA) — метод одновременной проверки гипотез о равенстве средних значений в нескольких группах. -- Насколько наблюдения из одной группы более похожи друг на друга, чем из разных групп? -- - однофакторный (как в примере) - многофакторный (деление на группы сразу по нескольким факторам). --- ## Общая изменчивость <img src="19-anova_files/figure-html/gg-tot-1.png" width="432" /> Общая изменчивость `\(SS_t\)` --- это сумма квадратов отклонений наблюдаемых значений `\(y_i\)` от общего среднего `\(\bar y\)` --- ## Факторная (межгрупповая) изменчивость <img src="19-anova_files/figure-html/gg-x-1.png" width="432" /> Отклонения внутригрупповых средних от общего среднего в генеральной совокупности --- это эффект фактора `\(\color{purple}{\alpha_j = \mu_j - \mu}\)`, где `\(j = 1, 2, ..., p\)` --- это одна из `\(p\)` групп. Мы оцениваем эффект фактора по реальным данным `\(\color{purple}{\bar{y}_j-\bar{y}}\)` --- ## Остаточная (внутригрупповая) изменчивость <img src="19-anova_files/figure-html/gg-res-1.png" width="432" /> Отклонения значений от средних внутри групп (__остатки__) — это изменчивость, которую не может объяснить группировка по фактору. Ещё её называют случайной изменчивостью. --- ## Структура общей изменчивости `$$SS_t = \color{purple}{SS_x} + \color{green}{SS_e}$$` <img src="19-anova_files/figure-html/gg-ss-1.png" width="864" /> Общая изменчивость | .purple[Факторная изменчивость] | .green[Остаточная изменчивость] ---- |----|---- ... | ... | ... `\(SS_{t}= \sum\sum{(\bar{y}-y_{ij})^2}\)` | `\(SS_{x}=\sum{n_j(\bar{y}_j-\bar{y})^2}\)` | `\(SS_{e}= \sum\sum{(\bar{y}_{j}-y_{ij})^2}\)` `\(df_{t} = n - 1\)` | `\(df_{x} = p - 1\)` | `\(df_{e} = n - p\)` --- ## От изменчивостей к дисперсиям `$$SS_t = \color{purple}{SS_x} + \color{green}{SS_e} \qquad MS_t \ne \color{purple}{MS_x} + \color{green}{MS_e}$$` <img src="19-anova_files/figure-html/gg-ss-1.png" width="864" /> | Общая дисперсия | .purple[Факторная дисперсия] | .green[Остаточная дисперсия] | | ---- |----|----| | `\(MS_{t} = \frac {SS_{t}}{df_{t}}\)` | `\(MS_{x} = \frac {SS_{x}}{df_{x}}\)` | `\(MS_{e} = \frac{SS_{e}}{df_{e}}\)` | | `\(SS_{t}= \sum\sum{(\bar{y}-y_{ij})^2}\)` | `\(SS_{x}=\sum{n_j(\bar{y}_j-\bar{y})^2}\)` | `\(SS_{e}= \sum\sum{(\bar{y}_{j}-y_{ij})^2}\)` | | `\(df_{t} = n - 1\)` | `\(df_{x} = p - 1\)` | `\(df_{e} = n - p\)` | ??? Они не зависят от числа наблюдений в выборке, в отличие от `\(SSx\)` и `\(SS_e\)` С их помощью можно проверить гипотезу о наличии связи между предиктором и откликом --- ## .purple[MSx] и .green[MSe] <br/> помогают тестировать значимость фактора Если зависимости нет, то `\(\mu_1 = \ldots = \mu_p\)` --- средние равны во всех `\(p\)` группах, и `\(\color{purple}{MS_x} \sim \color{green}{MS_e}\)` при условии, что - дисперсии остатков в группах равны - фактор имеет фиксированное число градаций <br/> -- - `\(H_0: \mu_1 = \ldots = \mu_p\)` --- средние во всех `\(p\)` группах равны. - `\(H_A: \exists\; i, j: \mu_i \ne \mu_j\)` --- __хотя бы одно__ среднее отличается от общего среднего. -- `$$F_{df_x, df_e} = \frac{\color{purple}{MS_{x}}}{\color{green}{MS_{e}}}$$` --- ## Тестирование значимости фактора при помощи F-критерия - `\(H_0: \mu_1 = \ldots = \mu_p\)` --- средние во всех `\(p\)` группах равны. - `\(H_A: \exists\; i, j: \mu_i \ne \mu_j\)` --- __хотя бы одно__ среднее отличается от общего среднего. `$$F_{df_x, df_e} = \frac{\color{purple}{MS_{x}}}{\color{green}{MS_{e}}}$$` В однофакторном дисперсионном анализе `\(df_{x} = p - 1\)` и `\(df_{e} = n - p\)`. <img src="19-anova_files/figure-html/f-distribution-1.png" width="576" /> --- ## Результаты дисперсионного анализа часто представляют в виде таблицы Источник изменчивости|SS|df|MS|F ----- | ----- | ----- | ----- | ----- Фактор | `\(SS_{x}=\sum{n_j(\bar{y}_j-\bar{y})^2}\)` | `\(df _x = p - 1\)` | `\(MS _x = \frac{SS _x}{df _x}\)` | `\(F _{df _x df _e} = \frac{MS _x}{MS _e}\)` Случайная | `\(SS_{e}= \sum\sum{(\bar{y}_j-y_{ij})^2}\)` | `\(df _e = n - p\)` | `\(MS _e = \frac{SS _e}{df _e}\)` | Общая | `\(SS_{t}= \sum\sum{(\bar{y}-y_{ij})^2}\)` | `\(df _t = n - 1\)` | Минимальное описание результатов в тексте должно содержать `\(F _{df _x, df _e}\)` и `\(p\)`. --- ## Дисперсионный анализ данных о мелатонине - `\(H_0: \mu_{контроль} = \mu_{колени} = \mu_{глаза}\)` — средние во всех 3 группах равны. - `\(H_A:\)` __хотя бы одно__ среднее отличается от общего среднего. .pull-left[ .small[ <table> <thead> <tr> <th style="text-align:left;"> </th> <th style="text-align:right;"> SS </th> <th style="text-align:right;"> df </th> <th style="text-align:right;"> MS </th> <th style="text-align:right;"> F </th> <th style="text-align:right;"> P </th> </tr> </thead> <tbody> <tr> <td style="text-align:left;"> Группа </td> <td style="text-align:right;"> 7.22 </td> <td style="text-align:right;"> 2 </td> <td style="text-align:right;"> 3.612 </td> <td style="text-align:right;"> 7.29 </td> <td style="text-align:right;"> 0.004 </td> </tr> <tr> <td style="text-align:left;"> Случайная </td> <td style="text-align:right;"> 9.41 </td> <td style="text-align:right;"> 19 </td> <td style="text-align:right;"> 0.496 </td> <td style="text-align:right;"> </td> <td style="text-align:right;"> </td> </tr> <tr> <td style="text-align:left;"> Общая </td> <td style="text-align:right;"> 16.64 </td> <td style="text-align:right;"> 21 </td> <td style="text-align:right;"> </td> <td style="text-align:right;"> </td> <td style="text-align:right;"> </td> </tr> </tbody> </table> ] ] .pull-right[ ] <br/> -- <img src="19-anova_files/figure-html/f-distribution-obs-1.png" width="576" /> --- ## Коэффициент детерминации — мера объясненной изменчивости `$$SS_t = \color{purple}{SS_x} + \color{green}{SS_e}$$` - `\(SS_t\)` — общая изменчивость - `\(SS_x\)` — объясненная фактором изменчивость - `\(SS_e\)` — остаточная изменчивость Как оценить, какую долю от всей изменчивости зависимой переменной объясняет фактор? <br/> -- __Коэффициент детерминации__: `$$R^2 = \frac{\color{purple}{SS_{x}}}{SS_{t}}$$` `\(0 < R^2 < 1\)` Можно записать в долях или процентах. <br/> --- ## Какую долю изменчивости объясняет фактор в примере про мелатонин? <table> <thead> <tr> <th style="text-align:left;"> </th> <th style="text-align:right;"> SS </th> <th style="text-align:right;"> df </th> <th style="text-align:right;"> MS </th> <th style="text-align:right;"> F </th> <th style="text-align:right;"> P </th> </tr> </thead> <tbody> <tr> <td style="text-align:left;"> Группа </td> <td style="text-align:right;"> 7.22 </td> <td style="text-align:right;"> 2 </td> <td style="text-align:right;"> 3.612 </td> <td style="text-align:right;"> 7.29 </td> <td style="text-align:right;"> 0.004 </td> </tr> <tr> <td style="text-align:left;"> Случайная </td> <td style="text-align:right;"> 9.41 </td> <td style="text-align:right;"> 19 </td> <td style="text-align:right;"> 0.496 </td> <td style="text-align:right;"> </td> <td style="text-align:right;"> </td> </tr> <tr> <td style="text-align:left;"> Общая </td> <td style="text-align:right;"> 16.64 </td> <td style="text-align:right;"> 21 </td> <td style="text-align:right;"> </td> <td style="text-align:right;"> </td> <td style="text-align:right;"> </td> </tr> </tbody> </table> -- `\(R^2 = \cfrac{7.224}{16.64} = 0.434\)` или `\(R^2 = 43.4\)` % --- class: middle, center, inverse # Условия применимости <br/>однофакторного дисперсионного анализа --- ## Условия применимости <br/>однофакторного дисперсионного анализа F-тесту можно верить, если выполняются условия применимости: - Случайность и независимость наблюдений внутри групп - Нормальное распределение .green[остатков] - Равенство дисперсий .green[остатков] в группах по фактору --- ## Проверка нормальности распределения остатков Квантильный график остатков <img src="19-anova_files/figure-html/plot_qq-1.png" width="576" /> Знакомый график -- - Точки должны лежать на одной прямой, если квантили наблюдаемого распределения остатков соответствуют квантилям теоретического распределения. --- ## Проверка равенства дисперсий остатков в группах - остатки в группах по фактору - остатки в зависимости от предсказанных значений <img src="19-anova_files/figure-html/plot-residuals-1.png" width="864" /> -- - Разброс остатков должен быть одинаков - в группах - вне зависимости от предсказанных значений --- ## Устойчивость дисперсионного анализа __Устойчивость__ (robustness) — свойство статистического метода, описывающее устойчивость его результатов при нарушении условий применимости. <br/> -- Дисперсионный анализ устойчив к отклонениям от условий применимости, если - размеры групп примерно одинаковы - равные объемы групп - большие выборки -- Более устойчив к отклонениям от нормальности распределения остатков Менее устойчив к неравенству дисперсий --- ## Если условия применимости нарушены - Трансформация данных - Обобщенная линейная модель (например, для счетных данных или долей) - Непараметрический тест Краскала-Уоллиса (Kruskal-Wallis test) - Тест, основанный на пермутациях --- class: middle, center, inverse # Какие именно группы различаются? ## Запланированные сравнения --- ## Как понять, какие именно группы различаются? Дисперсионный анализ говорит только, есть ли влияние фактора. --- ## Два способа понять, какие группы различаются -- .pull-left[ .center[__Запланированные сравнения__ (= planned comparisons, = linear contrasts)] - Можно сравнить выбранные группы. - Набор гипотез (и сравнений) должен быть определен заранее. - Делать можно вне зависимости от результатов дисперсионного анализа. ] -- .pull-right[ .center[__Post hoc__ тесты] <br/><br/> - Сравниваются все возможные группы. - Нет четких заранее сформулированных гипотез. - Делать можно, только если влияние соответствующего фактора оказалось значимым. ] --- ## Запланированные сравнения средних `\(d = \bar Y_2 - \bar Y_1\)` — разница средних значений в двух группах -- Стандартная ошибка этой разницы: `$$SE_{d} = \sqrt{MS_e\Big(\cfrac{1}{n_1} + \cfrac{1}{n_2} \Big)}$$` -- Доверительный интервал для этой разницы будет накрывать истинное значение `\(\mu_2 - \mu_1\)` в заданном проценте повторных выборок: `\(d - |t_{\alpha, df}| \cdot SE_{d} \le \mu_2 - \mu_1 \le d + |t_{\alpha, df}| \cdot SE_{d}\)` `\(df = N - p\)` --- ## Сравним контроль и опыт Сравним время сдвига циркадного ритма в группе, где освещали колени, и в контроле. .pull-left[ `\(d = \bar Y_2 - \bar Y_1 = -0.336 - (-0.309) = -0.027\)` `\(MS_e = 0.496\)` `\(SE_{d} = \sqrt{0.496\Big(\cfrac{1}{8} + \cfrac{1}{7} \Big)} = 0.364\)` `\(df = 22 - 3 = 19\)` `\(|t_{0.05, 19}| = 2.093\)` ] .pull-right[ <img src="19-anova_files/figure-html/gg-mel0-1.png" width="432" /> ] -- Доверительный интервал : `\(-0.027 - 2.093 \cdot 0.364 \le \mu_2 - \mu_1 \le -0.027 + 2.093 \cdot 0.364\)` `\(-0.79 \le \mu_2 - \mu_1 \le 0.736\)` или `\(-0.027 \pm 0.763\)` -- Он включает 0, значит нет статистически-значимой разницы времени сдвига циркадного ритма в контроле и в группе людей, которым освещали колени. --- ## Чем это отличается от обычного доверительного интервала? Запланированные сравнения дают доверительный интервал: `\(-0.79 \le \mu_2 - \mu_1 \le 0.736\)` или `\(-0.027 \pm 0.763\)` -- Обычный доверительный интервал к разнице средних был бы шире: `\(-0.813 \le \mu_2 - \mu_1 \le 0.759\)` или `\(-0.027 \pm 0.786\)` -- <br/> Т.е. запланированные сравнения — более мощный метод. --- ## Условия применимости запланированных сравнений Те же, что и у дисперсионного анализа: - независимость наблюдений - нормальное распределение остатков - одинаковые дисперсии в группах <br/> -- Менее устойчивы к отклонениям от условий применимости. --- class: middle, center, inverse # Какие именно группы различаются? ## Пост хок тесты --- ## Пост хок тесты __Пост хок тесты__ (post hoc tests) — позволяют узнать, какие именно группы различаются. -- - Делать можно, только если влияние соответствующего фактора оказалось значимым. - Сравниваются все возможные группы. <br/> -- - Тест Тьюки (Tukey's Honest Significant Difference, HSD) — пост хок тест, основанный на распределении стьюдентизированного размаха --- ## Распределение стьюдентизированного размаха (studentized range distribution) - Аналог t-распределения для любого числа выборок. - Стандартизованная разница минимального и максимального средних из нескольких выборок. - Форма зависит от `\(df\)` и от числа выборок `\(m\)`. .pull-left-60[ <img src="19-anova_files/figure-html/gg-tukey-distr-1.png" width="576" /> ] .pull-right-40[ Функция распределения для случая равных дисперсий и разных объемов групп: `$$q = \frac{\bar{y}_{max} - \bar{y}_{min}}{\sqrt{s^2\frac{1}{2} \large(\frac{1}{n_i} + \frac{1}{n_j}\large)}}$$` ] --- ## Пост хок Тест Тьюки (Tukey's Honest Significant Difference) = стьюдентизированный t-критерий `$$q = \frac{\bar{y}_i - \bar{y}_j}{\sqrt{MS_e\frac{1}{2} \large(\frac{1}{n_i} + \frac{1}{n_j}\large)}}$$` Подчиняется распределению стьюдентизированного размаха с параметрами `\(df = df_e = n - p\)` и `\(m = p\)` (число групп). Требуется равенство дисперсий. --- ## Сделаем пост хок тест Сравним средние во всех группах <table> <thead> <tr> <th style="text-align:left;"> </th> <th style="text-align:right;"> Разность </th> <th style="text-align:right;"> Н.гр. </th> <th style="text-align:right;"> В.гр. </th> <th style="text-align:right;"> p </th> </tr> </thead> <tbody> <tr> <td style="text-align:left;"> колени-контроль </td> <td style="text-align:right;"> -0.027 </td> <td style="text-align:right;"> -0.953 </td> <td style="text-align:right;"> 0.899 </td> <td style="text-align:right;"> 0.997 </td> </tr> <tr> <td style="text-align:left;"> глаза-контроль </td> <td style="text-align:right;"> -1.243 </td> <td style="text-align:right;"> -2.168 </td> <td style="text-align:right;"> -0.317 </td> <td style="text-align:right;"> 0.008 </td> </tr> <tr> <td style="text-align:left;"> глаза-колени </td> <td style="text-align:right;"> -1.216 </td> <td style="text-align:right;"> -2.172 </td> <td style="text-align:right;"> -0.260 </td> <td style="text-align:right;"> 0.012 </td> </tr> </tbody> </table> <img src="19-anova_files/figure-html/gg-mel1-1.png" width="432" /> --- class: middle, center, inverse # Фиксированные и случайные факторы --- ## Фиксированные факторы | | Свойства фиксированных факторов | | ---------|-----------------------| | Уровни фактора | заранее определенные и воспроизводимые уровни | | Гипотезы | о средних значениях отклика для уровней фактора <br/> `\(H _{0}: \mu _1 = \mu _2 = \ldots = \mu _i = \mu\)` | | Экстраполяция | только на уровни из анализа | | Число уровней фактора | Если много уровней, нужно много наблюдений | - Разные группы в клинических испытаниях - Горизонты на литорали - Разные возрастные группы --- ## Случайные факторы | | Свойства случайных факторов | | ---------|-------------------| | Уровни фактора | случайная выборка из возможных уровней | | Гипотезы | о дисперсии отклика между уровнями фактора <br/> `\(H _{0}: \sigma_{rand.fact.}^2 = 0\)` | | Экстраполяция | на все возможные уровни | | Число уровней фактора | Лучше больше 5 уровней | - Пациенты в клинических испытаниях (если несколько измерений на одном человеке) - Семьи или выводки (если наблюдения на нескольких членах семьи) --- class: middle, center, inverse # Дисперсионный анализ со случайным фактором --- ## Дисперсионный анализ со случайным фактором Главная задачане сравнение средних, а определение __компонентов дисперсии__ (variance components) случайных факторов. Примеры использования: - определение вклада генов и среды в изменчивость признака при селекции - определение ошибки измерения --- ## Ошибка измерения Палочник Timema cristinae живет в чаппарале в Калифорнии. В исследовании морфологических адаптаций палочников к разным видам растений учитывали ошибку измерения (Nosil, Crespi, 2006). Каждого палочника фотографировали и измеряли. Затем повторяли всю процедуру. Насколько велика ошибка измерений по сравнению с изменчивостью признака? <img src="19-anova_files/figure-html/gg-wsticks-1.png" width="864" /> --- ## Дисперсионный анализ со случайным фактором Если только один случайный фактор, то вычисления такие же, как для модели с фиксированным фактором. .small[ <table> <thead> <tr> <th style="text-align:left;"> </th> <th style="text-align:right;"> SS </th> <th style="text-align:right;"> df </th> <th style="text-align:right;"> MS </th> </tr> </thead> <tbody> <tr> <td style="text-align:left;"> Группа (палочник) </td> <td style="text-align:right;"> 0.059132 </td> <td style="text-align:right;"> 24 </td> <td style="text-align:right;"> 0.002464 </td> </tr> <tr> <td style="text-align:left;"> Случайная </td> <td style="text-align:right;"> 0.008900 </td> <td style="text-align:right;"> 25 </td> <td style="text-align:right;"> 0.000356 </td> </tr> <tr> <td style="text-align:left;"> Общая </td> <td style="text-align:right;"> 0.068032 </td> <td style="text-align:right;"> 49 </td> <td style="text-align:right;"> </td> </tr> </tbody> </table> ] -- Задача оценить компоненты дисперсии, поэтому F-тест не нужен. --- ## Два уровня изменчивости .small[ <table> <thead> <tr> <th style="text-align:left;"> </th> <th style="text-align:right;"> SS </th> <th style="text-align:right;"> df </th> <th style="text-align:right;"> MS </th> </tr> </thead> <tbody> <tr> <td style="text-align:left;"> Группа (палочник) </td> <td style="text-align:right;"> 0.059132 </td> <td style="text-align:right;"> 24 </td> <td style="text-align:right;"> 0.002464 </td> </tr> <tr> <td style="text-align:left;"> Случайная </td> <td style="text-align:right;"> 0.008900 </td> <td style="text-align:right;"> 25 </td> <td style="text-align:right;"> 0.000356 </td> </tr> <tr> <td style="text-align:left;"> Общая </td> <td style="text-align:right;"> 0.068032 </td> <td style="text-align:right;"> 49 </td> <td style="text-align:right;"> </td> </tr> </tbody> </table> ] -- .pull-left[ __Внутри групп__ `\(\sigma^2\)` и ее оценка `\(MS_e\)` — дисперсия между измерениями на одном и том же объекте. ] -- .pull-right[ __Между группами__ Средние в группах `\(\mu_i \sim N(\mu_{A}, \sigma^2_A)\)` `\(\sigma^2_A\)` и ее оценка — `\(s^2_A\)` — дисперсия между средними в группах (т.е. на разных объектах). `\(s^2_A = \cfrac{MS_{группа} - MS_e}{n_{группа}}\)` ] -- ------ В примере .pull-left[ `\(MS_e = 0.000356\)` ] -- .pull-right[ `\(s^2_A = \cfrac{0.002464 - 0.000356}{2} = 0.00105\)` ] --- ## Воспроизводимость __Воспроизводимость__ (repeatability) — способ оценить долю изменчивости признака по отношению ко всей изменчивости. `\(Repeatability = \cfrac{s^2_A}{s^2_A - MS_e}\)` -- <br/> ------- $$Repeatability = \cfrac{0.00105}{0.00105 - 0.000356} = 0.747503 $$ -- Т.е. 75% общей изменчивости объясняется изменчивостью признака, а 25% — ошибкой измерения. --- ## Условия применимости <br/>дисперсионного анализа со случайным фактором Те же самые + два новых - Уровни фактора (группы) выбраны слуайно из возможных уровней. - Средние в группах нормально распределены. --- class: middle, center, inverse # Summary --- ## Summary - Дисперсионный анализ позволяет одновременно сравнивать средние значения в нескольких группах. - Условия применимости дисперсионного анализа: - Случайность и независимость наблюдений внутри групп - Нормальное распределение .green[остатков] - Равенство дисперсий .green[остатков] в группах по фактору --- ## Summary - Если влияние фактора статистически значимо, это означает, что какие-то из сравниваемых средних в группах по этому фактору отличаются друг от друга. - Коэффициент детерминации `\(R^2\)` показывает, какую долю от всей изменчивости зависимой переменной объясняет фактор. Это мера силы влияния фактора. - Чтобы узнать, какие именно средние различается можно: - сделать заранее запланированные сравнения, - сравнить все подряд при помощи пост хок теста, но только если было показано, что влияние фактора значимо. --- ## Summary - Факторы в дисперсионном анализе делят на две категории: - Фиксированные - Случайные Дисперсионный анализ моделей со случайным фактором позволяет разложить дисперсию на компоненты, объясняемые этими факторами. При помощи компонент дисперсии можно оценить воспроизводимость наблюдений. --- ## Что почитать - Quinn, Keough, 2002, pp. 173-207 - Logan, 2010, pp. 254 - 282 - [Open Intro to Statistics](http://www.openintro.org/stat/) - Sokal, Rohlf, 1995, pp. 179-260 - Zar, 2010, pp. 189-207