meta data for this page
차이
문서의 선택한 두 판 사이의 차이를 보여줍니다.
난괴법 [2012/07/05 11:04] moonrepeat [각 수준의 모평균의 추정] |
난괴법 [2021/03/10 21:42] |
||
---|---|---|---|
줄 1: | 줄 1: | ||
- | ====== 난괴법 (Randomized Block Design) ====== | ||
- | ===== 데이터 구조 ===== | ||
- | [[인자]] $A$는 [[모수인자]] | ||
- | [[인자]] $B$는 [[변량인자]] | ||
- | |||
- | $$ y_{ij} = \mu + a_{i} + b_{j} + e_{ij} $$ | ||
- | |||
- | |||
- | * $y_{ij}$ : $A_{i}$와 $B_{j}$에서 얻은 [[측정값]] | ||
- | * $\mu$ : 실험전체의 [[모평균]] | ||
- | * $a_{i}$ : $A_{i}$가 주는 효과 | ||
- | * $b_{j}$ : $B_{j}$가 주는 효과 ($b_{j} \sim N(0, \sigma_{B}^{ \ 2})$이고 서로 [[독립]]) | ||
- | * $e_{ij}$ : $A_{i}$와 $B_{j}$에서 얻은 [[측정값]]의 [[오차]] ($e_{ij} \sim N(0, \sigma_{E}^{ \ 2})$이고 서로 [[독립]]) | ||
- | |||
- | * $i$ : 인자 $A$의 [[수준]] 수 $( i = 1,2, \cdots ,l )$ | ||
- | * $j$ : 인자 $B$의 [[수준]] 수 $( j = 1,2, \cdots ,m )$ | ||
- | ===== 자료의 구조 ===== | ||
- | | [[인자]] $$B$$ |||||| [[인자]] $$A$$ |<|2> 합계 |<|2> [[평균]] | | ||
- | |:::| $$A_{1}$$ | $$A_{2}$$ | $$\cdots$$ | $$A_{l}$$ | | ||
- | | $$B_{1}$$ | $$y_{11}$$ | $$y_{21}$$ | $$\cdots$$ | $$y_{l1}$$ | $$T_{.1}$$ | $$\overline{y}_{.1}$$ | | ||
- | | $$B_{2}$$ | $$y_{12}$$ | $$y_{22}$$ | $$\cdots$$ | $$y_{l2}$$ | $$T_{.2}$$ | $$\overline{y}_{.2}$$ | | ||
- | | $$\vdots$$ | $$\vdots$$ | $$\vdots$$ | | $$\vdots$$ | $$\vdots$$ | $$\vdots$$ | | ||
- | | $$B_{m}$$ | $$y_{1m}$$ | $$y_{2m}$$ | $$\cdots$$ | $$y_{lm}$$ | $$T_{.m}$$ | $$\overline{y}_{.m}$$ | | ||
- | | 합계 | $$T_{1.}$$ | $$T_{2.}$$ | $$\cdots$$ | $$T_{l.}$$ | $$T$$ | | | ||
- | | [[평균]] | $$\overline{y}_{1.}$$ | $$\overline{y}_{2.}$$ | $$\cdots$$ | $$\overline{y}_{l.}$$ | | $$\overline{\overline{y}}$$ | | ||
- | |||
- | |||
- | | $$T_{i.} = \sum_{j=1}^{m} y_{ij}$$ | $$\overline{y}_{i.} = \frac{T_{i.}}{m}$$ | | ||
- | | $$T_{.j} = \sum_{i=1}^{l} y_{ij}$$ | $$\overline{y}_{.j} = \frac{T_{.j}}{l}$$ | | ||
- | | $$T = \sum_{i=1}^{l} \sum_{j=1}^{m} y_{ij}$$ | $$\overline{\overline{y}} = \frac{T}{lm} = \frac{T}{N}$$ | | ||
- | | $$N = lm$$ | $$CT = \frac{T^{2}}{lm} = \frac{T^{2}}{N}$$ | | ||
- | ===== 제곱합 ===== | ||
- | 개개의 데이터 $$y_{ij}$$ 와 총편균 $$\overline{\overline{y}}$$ 의 차이는 다음과 같이 세 부분으로 나뉘어진다. | ||
- | |||
- | $$(y_{ij} - \overline{\overline{y}}) = (\overline{y}_{i.} - \overline{\overline{y}}) + (\overline{y}_{.j} - \overline{\overline{y}}) + (y_{ij} - \overline{y}_{i.} - \overline{y}_{.j} + \overline{\overline{y}})$$ | ||
- | |||
- | 양변을 제곱한 후에 모든 $$i$$ 와 $$j$$ 에 대하여 합하면 아래의 등식을 얻을 수 있다. | ||
- | |||
- | $$\sum_{i=1}^{l}\sum_{j=1}^{m}(y_{ij} - \overline{\overline{y}})^{2} = \sum_{i=1}^{l}\sum_{j=1}^{m}(\overline{y}_{i.} - \overline{\overline{y}})^{2} + \sum_{i=1}^{l}\sum_{j=1}^{m}(\overline{y}_{.j} - \overline{\overline{y}})^{2} + \sum_{i=1}^{l}\sum_{j=1}^{m}(y_{ij} - \overline{y}_{i.} - \overline{y}_{.j} + \overline{\overline{y}})^{2}$$ | ||
- | |||
- | 위 식에서 왼쪽 항은 총변동 $$S_{T}$$ 이고, 오른쪽 항은 차례대로 $$A$$ 의 [[변동]], $$B$$ 의 [[변동]], [[오차변동]]인 $$S_{A}$$ , $$S_{B}$$ , $$S_{E}$$ 가 된다. | ||
- | |||
- | $$\begin{displaymath}\begin{split} S_{T} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (y_{ij}- \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} \sum_{j=1}^{m} y_{ij}^{ \ 2} - CT \end{split}\end{displaymath}$$ | ||
- | |||
- | |||
- | $$\begin{displaymath}\begin{split} S_{A} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (\overline{y}_{i.}- \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} \frac{T_{i.}^{ \ 2}}{m} - CT \end{split}\end{displaymath}$$ | ||
- | |||
- | |||
- | $$\begin{displaymath}\begin{split} S_{B} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (\overline{y}_{.j}- \overline{\overline{y}})^{2} \\ &= \sum_{j=1}^{m} \frac{T_{.j}^{ \ 2}}{l} - CT \end{split}\end{displaymath}$$ | ||
- | |||
- | |||
- | $$\begin{displaymath}\begin{split} S_{E} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (y_{ij} - \overline{y}_{i.} - \overline{y}_{.j} + \overline{\overline{y}})^{2} \\ &= S_{T} - S_{A} - S_{B} \end{split}\end{displaymath}$$ | ||
- | ===== 자유도 ===== | ||
- | $$\nu_{_{A}} = l-1$$ | ||
- | |||
- | $$\nu_{_{B}} = m-1$$ | ||
- | |||
- | $$\nu_{_{E}} = (l-1)(m-1)$$ | ||
- | |||
- | $$\nu_{_{T}} = lm-1=N-1$$ | ||
- | ===== 평균제곱 ===== | ||
- | $$V_{A} = \frac{S_{A}}{\nu_{_{A}}}$$ | ||
- | |||
- | $$V_{B} = \frac{S_{B}}{\nu_{_{B}}}$$ | ||
- | |||
- | $$V_{E} = \frac{S_{E}}{\nu_{_{E}}}$$ | ||
- | ===== 평균제곱의 기대값 ===== | ||
- | $$E(V_{A}) = \sigma_{_{E}}^{ \ 2} + m \ \sigma_{_{A}}^{ \ 2}$$ | ||
- | |||
- | $$E(V_{B}) = \sigma_{_{E}}^{ \ 2} + l \ \sigma_{_{B}}^{ \ 2}$$ | ||
- | |||
- | $$E(V_{E}) = \sigma_{_{E}}^{ \ 2}$$ | ||
- | ===== 분산분석표 ===== | ||
- | | '''[[요인]]''' | '''[[제곱합]]''' $$SS$$ | '''[[자유도]]''' $$DF$$ | '''[[평균제곱]]''' $$MS$$ | $$E(MS)$$ | $$F_{0}$$ | '''기각치''' | '''[[순변동]]''' $$ S\acute{} $$ | '''[[기여율]]''' $$\rho$$ | | ||
- | |||||||||||||||| | | ||
- | | $$A$$ | $$S_{_{A}}$$ | $$\nu_{_{A}} = l - 1$$ | $$V_{_{A}} = S_{_{A}} / \nu_{_{A}}$$ | $$\sigma_{_{E}}^{ \ 2} + m \ \sigma_{_{A}}^{ \ 2}$$ | $$V_{_{A}}/V_{_{E}}$$ | $$F_{1-\alpha}(\nu_{_{A}} \ , \ \nu_{_{E}})$$ | $$S_{_{A}}\acute{} = S_{_{A}} - \nu_{_{A}} \ V_{_{E}}$$ | $$S_{_{A}}\acute{} / S_{_{T}} $$ | | ||
- | | $$B$$ | $$S_{_{B}}$$ | $$\nu_{_{B}} = m - 1$$ | $$V_{_{B}} = S_{_{B}} / \nu_{_{B}}$$ | $$\sigma_{_{E}}^{ \ 2} + l \ \sigma_{_{B}}^{ \ 2}$$ | $$V_{_{B}}/V_{_{E}}$$ | $$F_{1-\alpha}(\nu_{_{B}} \ , \ \nu_{_{E}})$$ | $$S_{_{B}}\acute{} = S_{_{B}} - \nu_{_{B}} \ V_{_{E}}$$ | $$S_{_{B}}\acute{} / S_{_{T}} $$ | | ||
- | | $$E$$ | $$S_{_{E}}$$ | $$\nu_{_{E}} = (l - 1)(m - 1)$$ | $$V_{_{E}} = S_{_{E}} / \nu_{_{E}}$$ | $$\sigma_{_{E}}^{ \ 2}$$ | | | $$S_{_{E}}\acute{} = S_{_{T}} - S_{_{A}}\acute{} - S_{_{B}}\acute{}$$ | $$S_{_{E}}\acute{} / S_{_{T}} $$ | | ||
- | |||||||||||||||| | | ||
- | | $$T$$ | $$S_{_{T}}$$ | $$\nu_{_{T}} = lm - 1$$ | | | | | $$S_{_{T}}$$ | $$1$$ | | ||
- | ===== 분산분석 ===== | ||
- | 인자 $$A$$ 에 대한 [[분산분석]] | ||
- | |||
- | $$F_{0}=\frac{V_{_{A}}}{V_{_{E}}}$$ | ||
- | |||
- | [[기각역]] : $$F_{0} > F_{a-\alpha}(\nu_{_{A}},\nu_{_{E}})$$ | ||
- | ===== 각 수준의 모평균의 추정 ===== | ||
- | [[인자]] $A$의 [[모평균]]에 관한 [[추정]] | ||
- | |||
- | $i$ [[수준]]에서의 [[모평균]] $\mu(A_{i})$의 [[점추정]]값 | ||
- | |||
- | * $$\hat{\mu}(A_{i})=\widehat{\mu + a_{i}} = \overline{y}_{i.}$$ | ||
- | |||
- | $i$ [[수준]]에서의 [[모평균]] $\mu(A_{i})$의 $100(1-\alpha) \%$ [[신뢰구간]]은 아래와 같다. | ||
- | |||
- | * $$\hat{\mu}(A_{i})= \left( \overline{y}_{i.} - t_{\alpha/2}(\nu^{*}) \sqrt{\frac{V_{B}+(l-1)V_{E}}{lm}} \ , \ \overline{y}_{i.} + t_{\alpha/2}(\nu^{*}) \sqrt{\frac{V_{B}+(l-1)V_{E}}{lm}} \right)$$ | ||
- | * 단, $\nu^{*}$는 [[등가자유도]]로 $\nu_{*} = \frac{ [[ V_{B}+(l-1)V_{E} ]] ^{2} }{V_{B}^{ \ 2} / \nu_{B} + [[ (l-1)V_{E} ]] ^{2} / \nu_{E}}$ 이다. | ||
- | ===== 각 수준의 모평균차의 추정 ===== | ||
- | [[인자]] $A$의 [[모평균]]차에 관한 [[추정]] | ||
- | |||
- | $i$ [[수준]]과 $j$ [[수준]]의 [[모평균]]차 $\mu(A_{i})-\mu(A_{j})$의 [[점추정]]값 | ||
- | |||
- | * $$\widehat{\mu(A_{i})-\mu(A_{j})} = \overline{y}_{i.} - \overline{y}_{j.}$$ | ||
- | |||
- | $i$ [[수준]]과 $j$ [[수준]]의 [[모평균]]차 $\mu(A_{i})-\mu(A_{j})$의 $100(1-\alpha) \%$ [[신뢰구간]]은 아래와 같다. | ||
- | |||
- | * $$\widehat{\mu(A_{i})-\mu(A_{j})}= \left( (\overline{y}_{i.} - \overline{y}_{j.}) - t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{m}} \ , \ (\overline{y}_{i.} - \overline{y}_{j.}) + t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{m}} \right)$$ | ||
- | ===== 분산의 추정 ===== | ||
- | $$\hat{\sigma}_{B}^{ \ 2} = \frac{V_{B}-V_{E}}{l}$$ | ||
- | |||
- | ---- | ||
- | * [[실험계획법]] | ||
- | * [[결측치추정(Yates방법)]] |