일원배치법 (모수모형) (반복수 불균일)

데이터 구조

요인 $A$는 모수인자

$$ y_{ij} = \mu + a_{i} + e_{ij} $$

  • $i$ : 인자 $A$의 수준 $( i = 1,2, \cdots ,l )$
  • $j$ : 실험의 반복 $( j = 1,2, \cdots ,r_{i} )$
  • $e_{ij} \sim N(0, \sigma_{E}^{ \ 2})$이고 서로 독립

가설

인자 $A$의 각 수준에서 특성치의 차이가 유의한가?

또한, 모수모형은 $\sigma_{_{A}}^{ \ \ 2} = \sum_{i=1}^{l} \frac{a_{i}^{ \ \ 2}}{l-1}$이므로

로 표현 가능하다.

자료의 구조

인자수준 합계
$$A_{1}$$ $$A_{2}$$ $$A_{3}$$ $$\cdots$$ $$A_{l}$$
실험의
반복
$$y_{11}$$ $$y_{21}$$ $$y_{31}$$ $$\cdots$$ $$y_{l1}$$
$$y_{12}$$ $$y_{22}$$ $$y_{32}$$ $$\cdots$$ $$y_{l2}$$
$$\vdots$$ $$\vdots$$ $$\vdots$$ $$\vdots$$
$$y_{1r_{1}}$$ $$y_{2r_{2}}$$ $$y_{3r_{3}}$$ $$\cdots$$ $$y_{lr_{l}}$$
합계 $$T_{1.}$$ $$T_{2.}$$ $$T_{3.}$$ $$\cdots$$ $$T_{l.}$$ $$T$$
평균 $$\overline{y}_{1.}$$ $$\overline{y}_{2.}$$ $$\overline{y}_{3.}$$ $$\cdots$$ $$\overline{y}_{l.}$$ $$\overline{\overline{y}}$$
$$T = \sum_{i=1}^{l} \sum_{j=1}^{r_{i}} y_{ij}$$ $$\overline{\overline{y}} = \frac{T}{N}$$
$$T_{i.} = \sum_{j=1}^{r_{i}} y_{ij}$$ $$\overline{y}_{i.} = \frac{T_{i.}}{r_{i}}$$
$$N = \sum_{i=1}^{l} r_{i}$$ $$CT = \frac{T^{2}}{N}$$

제곱합

개개의 데이터 $y_{ij}$와 총 평균 $\overline{\overline{y}}$의 차이는 다음과 같이 두 부분으로 나뉘어진다.

$$(y_{ij} - \overline{\overline{y}}) = (\overline{y}_{i.} - \overline{\overline{y}}) + (y_{ij} - \overline{y}_{i.})$$

양변을 제곱한 후에 모든 $i$와 $j$에 대하여 합하면 아래의 등식을 얻을 수 있다.

$$\sum_{i=1}^{l}\sum_{j=1}^{r_{i}}(y_{ij} - \overline{\overline{y}})^{2} = \sum_{i=1}^{l}\sum_{j=1}^{r_{i}}(\overline{y}_{i.} - \overline{\overline{y}})^{2} + \sum_{i=1}^{l}\sum_{j=1}^{r_{i}}(y_{ij} - \overline{y}_{i.})$$

위 식에서 왼쪽 항은 총변동 $S_{T}$이고, 오른쪽 항은 차례대로 $A$의 변동, 오차변동인 $S_{A}$, $S_{E}$가 된다.

$$\begin{displaymath}\begin{split} S_{_{T}} &= \sum_{i=1}^{l} \sum_{j=1}^{r_{i}} (y_{ij}- \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} \sum_{j=1}^{r_{i}} y_{ij}^{2} - CT \end{split}\end{displaymath}$$ $$\begin{displaymath}\begin{split} S_{_{A}} &= \sum_{i=1}^{l} \sum_{j=1}^{r_{i}} (\overline{y}_{i.} - \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} r_{i} (\overline{y}_{i.} - \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} \frac{T_{i.}^{2}}{r_{i}} - CT \end{split}\end{displaymath}$$ $$\begin{displaymath}\begin{split} S_{_{E}} &= \sum_{i=1}^{l} \sum_{j=1}^{r_{i}} (y_{ij} - \overline{y}_{i.})^{2} \\ &= S_{_{T}}-S_{_{A}} \end{split}\end{displaymath}$$ 단, $CT$는 $CT =\frac{T^{2}}{N}$으로 수정항이라 부른다.

자유도

$$\nu_{_{A}} = l - 1$$

$$\nu_{_{E}} = N - l$$

$$\nu_{_{T}} = N-1$$

평균제곱

$$V_{_{A}} = \frac{S_{_{A}}}{\nu_{_{A}}}$$

$$V_{_{E}} = \frac{S_{_{E}}}{\nu_{_{E}}}$$

평균제곱의 기대값

$$E(V_{A}) = \sigma_{E}^{ \ 2} + \frac{\sum_{i=1}^{l} r_{i}a_{i}^{ \ 2}}{l-1}$$

$$E(V_{E}) = \sigma_{E}^{ \ 2}$$

분산분석표

요인 제곱합
$SS$
자유도
$DF$
평균제곱
$MS$
$E(MS)$ $F_{0}$ 기각치 순변동
$S\acute{}$
기여율
$\rho$
$$A$$ $$S_{_{A}}$$ $$\nu_{_{A}} = l - 1$$ $$V_{_{A}} = S_{_{A}} / \nu_{_{A}}$$ $$\sigma_{E}^{ \ 2} + \frac{\sum_{i=1}^{l} r_{i}^{ \ 2} a_{i}^{ \ 2}}{l-1}$$ $$V_{_{A}}/V_{_{E}}$$ $$F_{1-\alpha}(\nu_{_{A}} \ , \ \nu_{_{E}})$$ $$S_{_{A}}\acute{} = S_{_{A}} - \nu_{_{A}} \ V_{_{E}}$$ $$S_{_{A}}\acute{} / S_{_{T}} $$
$$E$$ $$S_{_{E}}$$ $$\nu_{_{E}} = l(r - 1)$$ $$V_{_{E}} = S_{_{E}} / \nu_{_{E}}$$ $$\sigma_{_{E}}^{ \ 2}$$ $$S_{_{E}}\acute{} = S_{_{T}} - S_{_{A}}\acute{}$$ $$S_{_{E}}\acute{} / S_{_{T}} $$
$$T$$ $$S_{_{T}}$$ $$\nu_{_{T}} = lr - 1$$ $$S_{_{T}}$$ $$1$$

분산분석

$$F_{0}=\frac{V_{_{A}}}{V_{_{E}}}$$

기각역 : $F_{0} > F(\nu_{_{A}},\nu_{_{E}} \ ; \ \alpha)$

각 수준의 모평균의 추정

$\mu_{i}$의 $100(1-\alpha) \% $ 신뢰구간은 아래와 같다.

$$\mu_{i} = \left( \ \overline{y}_{i.} - t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{\frac{V_{_{E}}}{r_{i}}} \ , \ \overline{y}_{i.} + t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{\frac{V_{_{E}}}{r_{i}}} \ \right)$$

각 수준의 모평균차의 추정

$\mu_{i} - \mu_{j}$의 $100(1-\alpha) \%$ 신뢰구간은 아래와 같다.

$$\mu_{i} - \mu_{j} = \left( \ (\overline{y}_{i.} - \overline{y}_{j.}) - t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{V_{_{E}} \left( \frac{1}{r_{i}} + \frac{1}{r_{j}} \right) } \ , \ (\overline{y}_{i.} - \overline{y}_{j.}) + t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{V_{_{E}} \left( \frac{1}{r_{i}} + \frac{1}{r_{j}} \right) } \ \right) $$

각 수준의 모평균차의 검정

수준 $i$, $j$간의 표본평균의 차 $| \overline{y}_{i.} - \overline{y}_{j.} |$를 구하여 이 값이 최소유의차(LSD)보다 크면 두 수준간에 차이가 유의하고 반대로 작으면 두 수준간의 차이는 유의하지 않다고 결론내릴 수 있다.

최소유의차 LSD는 아래와 같다.

$$\mathrm{LSD} = t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{V_{_{E}} \left( \frac{1}{r_{i}} + \frac{1}{r_{j}} \right) }$$

오차분산의 추정

$\sigma_{_{E}}^{ \ \ 2}$의 $100(1-\alpha) \% $ 신뢰구간은 아래와 같다.

$$\sigma_{_{E}}^{ \ \ 2} = \left( \frac{S_{_{E}}}{\chi^{2}_{\frac{\alpha}{2}} ( \nu_{_{E}}) } \ , \ \frac{S_{_{E}}}{\chi^{2}_{1-\frac{\alpha}{2}} ( \nu_{_{E}}) } \right)$$