====== 일원배치법 (모수모형) (반복수 불균일) ====== ===== 데이터 구조 ===== [[요인]] $A$는 [[모수인자]] $$ y_{ij} = \mu + a_{i} + e_{ij} $$ * $i$ : [[인자]] $A$의 [[수준]] $( i = 1,2, \cdots ,l )$ * $j$ : 실험의 [[반복]] $( j = 1,2, \cdots ,r_{i} )$ * $e_{ij} \sim N(0, \sigma_{E}^{ \ 2})$이고 서로 [[독립]] ===== 가설 ===== [[인자]] $A$의 각 [[수준]]에서 [[특성치]]의 차이가 유의한가? * [[귀무가설]] : $H_{0} : a_{1} = a_{2} = \cdots = a_{l} = 0$ * [[대립가설]] : $H_{1} : a_{i} \neq 0$ 또한, [[모수모형]]은 $\sigma_{_{A}}^{ \ \ 2} = \sum_{i=1}^{l} \frac{a_{i}^{ \ \ 2}}{l-1}$이므로 * [[귀무가설]] : $H_{0} : \sigma_{_{A}}^{ \ \ 2} = 0$ * [[대립가설]] : $H_{1} : \sigma_{_{A}}^{ \ \ 2} > 0$ 로 표현 가능하다. ===== 자료의 구조 ===== ^ ^ [[인자]]의 [[수준]] ^^^^^ 합계 | ^:::^ $$A_{1}$$ ^ $$A_{2}$$ ^ $$A_{3}$$ ^ $$\cdots$$ ^ $$A_{l}$$ ^:::| | 실험의\\ [[반복]] | $$y_{11}$$ | $$y_{21}$$ | $$y_{31}$$ | $$\cdots$$ | $$y_{l1}$$ | | |:::| $$y_{12}$$ | $$y_{22}$$ | $$y_{32}$$ | $$\cdots$$ | $$y_{l2}$$ |:::| |:::| $$\vdots$$ | $$\vdots$$ | $$\vdots$$ | | $$\vdots$$ |:::| |:::| $$y_{1r_{1}}$$ | $$y_{2r_{2}}$$ | $$y_{3r_{3}}$$ | $$\cdots$$ | $$y_{lr_{l}}$$ |:::| ^ 합계 ^ $$T_{1.}$$ ^ $$T_{2.}$$ ^ $$T_{3.}$$ ^ $$\cdots$$ ^ $$T_{l.}$$ ^ $$T$$ | ^ [[평균]] ^ $$\overline{y}_{1.}$$ ^ $$\overline{y}_{2.}$$ ^ $$\overline{y}_{3.}$$ ^ $$\cdots$$ ^ $$\overline{y}_{l.}$$ ^ $$\overline{\overline{y}}$$ | | $$T = \sum_{i=1}^{l} \sum_{j=1}^{r_{i}} y_{ij}$$ | $$\overline{\overline{y}} = \frac{T}{N}$$ | | $$T_{i.} = \sum_{j=1}^{r_{i}} y_{ij}$$ | $$\overline{y}_{i.} = \frac{T_{i.}}{r_{i}}$$ | | $$N = \sum_{i=1}^{l} r_{i}$$ | $$CT = \frac{T^{2}}{N}$$ | ===== 제곱합 ===== 개개의 데이터 $y_{ij}$와 총 [[평균]] $\overline{\overline{y}}$의 차이는 다음과 같이 두 부분으로 나뉘어진다. $$(y_{ij} - \overline{\overline{y}}) = (\overline{y}_{i.} - \overline{\overline{y}}) + (y_{ij} - \overline{y}_{i.})$$ 양변을 제곱한 후에 모든 $i$와 $j$에 대하여 합하면 아래의 등식을 얻을 수 있다. $$\sum_{i=1}^{l}\sum_{j=1}^{r_{i}}(y_{ij} - \overline{\overline{y}})^{2} = \sum_{i=1}^{l}\sum_{j=1}^{r_{i}}(\overline{y}_{i.} - \overline{\overline{y}})^{2} + \sum_{i=1}^{l}\sum_{j=1}^{r_{i}}(y_{ij} - \overline{y}_{i.})$$ 위 식에서 왼쪽 항은 총변동 $S_{T}$이고, 오른쪽 항은 차례대로 $A$의 [[변동]], [[오차변동]]인 $S_{A}$, $S_{E}$가 된다. $$\begin{displaymath}\begin{split} S_{_{T}} &= \sum_{i=1}^{l} \sum_{j=1}^{r_{i}} (y_{ij}- \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} \sum_{j=1}^{r_{i}} y_{ij}^{2} - CT \end{split}\end{displaymath}$$ $$\begin{displaymath}\begin{split} S_{_{A}} &= \sum_{i=1}^{l} \sum_{j=1}^{r_{i}} (\overline{y}_{i.} - \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} r_{i} (\overline{y}_{i.} - \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} \frac{T_{i.}^{2}}{r_{i}} - CT \end{split}\end{displaymath}$$ $$\begin{displaymath}\begin{split} S_{_{E}} &= \sum_{i=1}^{l} \sum_{j=1}^{r_{i}} (y_{ij} - \overline{y}_{i.})^{2} \\ &= S_{_{T}}-S_{_{A}} \end{split}\end{displaymath}$$ 단, $CT$는 $CT =\frac{T^{2}}{N}$으로 [[수정항]]이라 부른다. ===== 자유도 ===== $$\nu_{_{A}} = l - 1$$ $$\nu_{_{E}} = N - l$$ $$\nu_{_{T}} = N-1$$ ===== 평균제곱 ===== $$V_{_{A}} = \frac{S_{_{A}}}{\nu_{_{A}}}$$ $$V_{_{E}} = \frac{S_{_{E}}}{\nu_{_{E}}}$$ ===== 평균제곱의 기대값 ===== $$E(V_{A}) = \sigma_{E}^{ \ 2} + \frac{\sum_{i=1}^{l} r_{i}a_{i}^{ \ 2}}{l-1}$$ $$E(V_{E}) = \sigma_{E}^{ \ 2}$$ ===== 분산분석표 ===== ^ [[요인]] ^ [[제곱합]]\\ $SS$ ^ [[자유도]]\\ $DF$ ^ [[평균제곱]]\\ $MS$ ^ $E(MS)$ ^ $F_{0}$ ^ [[기각치]] ^ [[순변동]]\\ $S\acute{}$ ^ [[기여율]]\\ $\rho$ | | $$A$$ | $$S_{_{A}}$$ | $$\nu_{_{A}} = l - 1$$ | $$V_{_{A}} = S_{_{A}} / \nu_{_{A}}$$ | $$\sigma_{E}^{ \ 2} + \frac{\sum_{i=1}^{l} r_{i}^{ \ 2} a_{i}^{ \ 2}}{l-1}$$ | $$V_{_{A}}/V_{_{E}}$$ | $$F_{1-\alpha}(\nu_{_{A}} \ , \ \nu_{_{E}})$$ | $$S_{_{A}}\acute{} = S_{_{A}} - \nu_{_{A}} \ V_{_{E}}$$ | $$S_{_{A}}\acute{} / S_{_{T}} $$ | | $$E$$ | $$S_{_{E}}$$ | $$\nu_{_{E}} = l(r - 1)$$ | $$V_{_{E}} = S_{_{E}} / \nu_{_{E}}$$ | $$\sigma_{_{E}}^{ \ 2}$$ | | | $$S_{_{E}}\acute{} = S_{_{T}} - S_{_{A}}\acute{}$$ | $$S_{_{E}}\acute{} / S_{_{T}} $$ | | $$T$$ | $$S_{_{T}}$$ | $$\nu_{_{T}} = lr - 1$$ | | | | | $$S_{_{T}}$$ | $$1$$ | ===== 분산분석 ===== $$F_{0}=\frac{V_{_{A}}}{V_{_{E}}}$$ [[기각역]] : $F_{0} > F(\nu_{_{A}},\nu_{_{E}} \ ; \ \alpha)$ ===== 각 수준의 모평균의 추정 ===== $\mu_{i}$의 $100(1-\alpha) \% $ [[신뢰구간]]은 아래와 같다. $$\mu_{i} = \left( \ \overline{y}_{i.} - t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{\frac{V_{_{E}}}{r_{i}}} \ , \ \overline{y}_{i.} + t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{\frac{V_{_{E}}}{r_{i}}} \ \right)$$ ===== 각 수준의 모평균차의 추정 ===== $\mu_{i} - \mu_{j}$의 $100(1-\alpha) \%$ [[신뢰구간]]은 아래와 같다. $$\mu_{i} - \mu_{j} = \left( \ (\overline{y}_{i.} - \overline{y}_{j.}) - t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{V_{_{E}} \left( \frac{1}{r_{i}} + \frac{1}{r_{j}} \right) } \ , \ (\overline{y}_{i.} - \overline{y}_{j.}) + t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{V_{_{E}} \left( \frac{1}{r_{i}} + \frac{1}{r_{j}} \right) } \ \right) $$ ===== 각 수준의 모평균차의 검정 ===== 두 [[수준]] $i$, $j$간의 [[표본평균]]의 차 $| \overline{y}_{i.} - \overline{y}_{j.} |$를 구하여 이 값이 [[최소유의차]]([[LSD]])보다 크면 두 [[수준]]간에 차이가 유의하고 반대로 작으면 두 [[수준]]간의 차이는 유의하지 않다고 결론내릴 수 있다. [[최소유의차]] [[LSD]]는 아래와 같다. $$\mathrm{LSD} = t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{V_{_{E}} \left( \frac{1}{r_{i}} + \frac{1}{r_{j}} \right) }$$ ===== 오차분산의 추정 ===== $\sigma_{_{E}}^{ \ \ 2}$의 $100(1-\alpha) \% $ [[신뢰구간]]은 아래와 같다. $$\sigma_{_{E}}^{ \ \ 2} = \left( \frac{S_{_{E}}}{\chi^{2}_{\frac{\alpha}{2}} ( \nu_{_{E}}) } \ , \ \frac{S_{_{E}}}{\chi^{2}_{1-\frac{\alpha}{2}} ( \nu_{_{E}}) } \right)$$ ---- * [[실험계획법]] * [[일원배치법]]