meta data for this page
  •  

차이

문서의 선택한 두 판 사이의 차이를 보여줍니다.

차이 보기로 링크

난괴법 [2012/07/05 11:56]
moonrepeat [분산분석표]
난괴법 [2021/03/10 21:42]
줄 1: 줄 1:
-====== 난괴법 (Randomized Block Design) ====== 
-===== 데이터 구조 ===== 
- ​[[인자]] $A$는 [[모수인자]] 
  
- ​[[인자]] $B$는 [[변량인자]] 
- 
- $$ y_{ij} = \mu + a_{i} + b_{j} + e_{ij} $$ 
- 
- 
-  *  $y_{ij}$ ​ :  $A_{i}$와 $B_{j}$에서 얻은 [[측정값]] 
-  *  $\mu$  : 실험전체의 [[모평균]] 
-  *  $a_{i}$ ​ :  $A_{i}$가 주는 효과 
-  *  $b_{j}$ ​ :  $B_{j}$가 주는 효과 ($b_{j} \sim N(0, \sigma_{B}^{ \ 2})$이고 서로 [[독립]]) 
-  *  $e_{ij}$ ​ :  $A_{i}$와 $B_{j}$에서 얻은 [[측정값]]의 [[오차]] ​ ($e_{ij} \sim N(0, \sigma_{E}^{ \ 2})$이고 서로 [[독립]]) 
- 
-  *  $i$ : 인자 $A$의 [[수준]] 수 $( i = 1,2, \cdots ,l )$ 
-  *  $j$ : 인자 $B$의 [[수준]] 수 $( j = 1,2, \cdots ,m )$ 
-===== 자료의 구조 ===== 
-^ [[인자]] $B$  ^  [[인자]] $A$  ^^^^  합계 ​ ^  [[평균]] ​ | 
-^:::^  $A_{1}$ ​ ^  $A_{2}$ ​ ^  $\cdots$ ​ ^  $A_{l}$ ​ ^:::^:::| 
-|  $B_{1}$ ​ |  $y_{11}$ ​ |  $y_{21}$ ​ |  $\cdots$ ​ |  $y_{l1}$ ​ |  $T_{.1}$ ​ |  $\overline{y}_{.1}$ ​ | 
-|  $B_{2}$ ​ |  $y_{12}$ ​ |  $y_{22}$ ​ |  $\cdots$ ​ |  $y_{l2}$ ​ |  $T_{.2}$ ​ |  $\overline{y}_{.2}$ ​ | 
-|  $\vdots$ ​ |  $\vdots$ ​ |  $\vdots$ ​ |  |  $\vdots$ ​ |  $\vdots$ ​ |  $\vdots$ ​ | 
-|  $B_{m}$ ​ |  $y_{1m}$ ​ |  $y_{2m}$ ​ |  $\cdots$ ​ |  $y_{lm}$ ​ |  $T_{.m}$ ​ |  $\overline{y}_{.m}$ ​ | 
-^  합계 ​ ^  $T_{1.}$ ​ ^  $T_{2.}$ ​ ^  $\cdots$ ​ ^  $T_{l.}$ ​ ^  $T$  ^   | 
-^  [[평균]] ​ ^  $\overline{y}_{1.}$ ​ ^  $\overline{y}_{2.}$ ​ ^  $\cdots$ ​ ^  $\overline{y}_{l.}$ ​ ^  ^  $\overline{\overline{y}}$ ​ | 
- 
-|  $$T_{i.} = \sum_{j=1}^{m} y_{ij}$$ ​ |  $$\overline{y}_{i.} = \frac{T_{i.}}{m}$$ ​ | 
-|  $$T_{.j} = \sum_{i=1}^{l} y_{ij}$$ ​ |  $$\overline{y}_{.j} = \frac{T_{.j}}{l}$$ ​ | 
-|  $$T = \sum_{i=1}^{l} \sum_{j=1}^{m} y_{ij}$$ ​ |  $$\overline{\overline{y}} = \frac{T}{lm} = \frac{T}{N}$$ ​ | 
-|  $$N = lm$$  |  $$CT = \frac{T^{2}}{lm} = \frac{T^{2}}{N}$$ ​ | 
-===== 제곱합 ===== 
- ​개개의 데이터 $y_{ij}$와 총편균 $\overline{\overline{y}}$의 차이는 다음과 같이 세 부분으로 나뉘어진다. 
- 
- ​$$(y_{ij} - \overline{\overline{y}}) = (\overline{y}_{i.} - \overline{\overline{y}}) + (\overline{y}_{.j} - \overline{\overline{y}}) + (y_{ij} - \overline{y}_{i.} - \overline{y}_{.j} +  \overline{\overline{y}})$$ 
- 
- ​양변을 제곱한 후에 모든 $i$와 $j$에 대하여 합하면 아래의 등식을 얻을 수 있다. 
- 
- ​$$\sum_{i=1}^{l}\sum_{j=1}^{m}(y_{ij} - \overline{\overline{y}})^{2} = \sum_{i=1}^{l}\sum_{j=1}^{m}(\overline{y}_{i.} - \overline{\overline{y}})^{2} + \sum_{i=1}^{l}\sum_{j=1}^{m}(\overline{y}_{.j} - \overline{\overline{y}})^{2} + \sum_{i=1}^{l}\sum_{j=1}^{m}(y_{ij} - \overline{y}_{i.} - \overline{y}_{.j} +  \overline{\overline{y}})^{2}$$ 
- 
- 위 식에서 왼쪽 항은 총변동 $S_{T}$이고,​ 오른쪽 항은 차례대로 $A$의 [[변동]], $B$의 [[변동]], [[오차변동]]인 $S_{A}$, $S_{B}$, $S_{E}$가 된다. 
- 
-  * $$\begin{displaymath}\begin{split} S_{T} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (y_{ij}- \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} \sum_{j=1}^{m} y_{ij}^{ \ 2} - CT \end{split}\end{displaymath}$$ 
-  * $$\begin{displaymath}\begin{split} S_{A} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (\overline{y}_{i.}- \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} \frac{T_{i.}^{ \ 2}}{m} - CT \end{split}\end{displaymath}$$ 
-  * $$\begin{displaymath}\begin{split} S_{B} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (\overline{y}_{.j}- \overline{\overline{y}})^{2} \\ &= \sum_{j=1}^{m} \frac{T_{.j}^{ \ 2}}{l} - CT \end{split}\end{displaymath}$$ 
-  * $$\begin{displaymath}\begin{split} S_{E} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (y_{ij} - \overline{y}_{i.} - \overline{y}_{.j} + \overline{\overline{y}})^{2} \\ &= S_{T} - S_{A} - S_{B} \end{split}\end{displaymath}$$ 
-===== 자유도 ===== 
- ​$$\nu_{_{A}} = l-1$$ 
- 
- ​$$\nu_{_{B}} = m-1$$ 
- 
- ​$$\nu_{_{E}} = (l-1)(m-1)$$ 
- 
- ​$$\nu_{_{T}} = lm-1=N-1$$ 
-===== 평균제곱 ===== 
- ​$$V_{A} = \frac{S_{A}}{\nu_{_{A}}}$$ 
- 
- ​$$V_{B} = \frac{S_{B}}{\nu_{_{B}}}$$ 
- 
- ​$$V_{E} = \frac{S_{E}}{\nu_{_{E}}}$$ 
-===== 평균제곱의 기대값 ===== 
- ​$$E(V_{A}) = \sigma_{_{E}}^{ \ 2} + m \ \sigma_{_{A}}^{ \ 2}$$ 
- 
- ​$$E(V_{B}) = \sigma_{_{E}}^{ \ 2} + l \ \sigma_{_{B}}^{ \ 2}$$ 
- 
- ​$$E(V_{E}) = \sigma_{_{E}}^{ \ 2}$$ 
-===== 분산분석표 ===== 
-^  [[요인]] ​ ^  [[제곱합]] $SS$  ^  [[자유도]] $DF$  ^  [[평균제곱]] $MS$  ^  $E(MS)$ ​ ^  $F_{0}$ ​ ^  [[기각치]] ​ ^  [[순변동]] $S \acute{}$ ​ ^  [[기여율]] $\rho$ ​ | 
-^  $$A$$  |  $$S_{_{A}}$$ ​ |  $$\nu_{_{A}} = l - 1$$  |  $$V_{_{A}} = S_{_{A}} / \nu_{_{A}}$$ ​ |  $$\sigma_{_{E}}^{ \ 2} + m \ \sigma_{_{A}}^{ \ 2}$$  |  $$V_{_{A}}/​V_{_{E}}$$ ​ |  $$F_{1-\alpha}(\nu_{_{A}} \ , \ \nu_{_{E}})$$ ​ |  $$S_{_{A}}\acute{} = S_{_{A}} - \nu_{_{A}} \ V_{_{E}}$$ ​ |  $$S_{_{A}}\acute{} / S_{_{T}} $$  | 
-^  $$B$$  |  $$S_{_{B}}$$ ​ |  $$\nu_{_{B}} = m - 1$$  |  $$V_{_{B}} = S_{_{B}} / \nu_{_{B}}$$ ​ |  $$\sigma_{_{E}}^{ \ 2} + l \ \sigma_{_{B}}^{ \ 2}$$  |  $$V_{_{B}}/​V_{_{E}}$$ ​ |  $$F_{1-\alpha}(\nu_{_{B}} \ , \ \nu_{_{E}})$$ ​ |  $$S_{_{B}}\acute{} = S_{_{B}} - \nu_{_{B}} \ V_{_{E}}$$ ​ |  $$S_{_{B}}\acute{} / S_{_{T}} $$  | 
-^  $$E$$  |  $$S_{_{E}}$$ ​ |  $$\nu_{_{E}} = (l - 1)(m - 1)$$  |  $$V_{_{E}} = S_{_{E}} / \nu_{_{E}}$$ ​ |  $$\sigma_{_{E}}^{ \ 2}$$  |   ​| ​  ​| ​ $$S_{_{E}}\acute{} = S_{_{T}} - S_{_{A}}\acute{} - S_{_{B}}\acute{}$$ ​ |  $$S_{_{E}}\acute{} / S_{_{T}} $$  | 
-^  $$T$$  |  $$S_{_{T}}$$ ​ |  $$\nu_{_{T}} = lm - 1$$  |  |  |  |  |  $$S_{_{T}}$$ ​ |  $$1$$  | 
-===== 분산분석 ===== 
- ​인자 $A$에 대한 [[분산분석]] 
- 
- ​$$F_{0}=\frac{V_{_{A}}}{V_{_{E}}}$$ 
- 
- ​[[기각역]] : $F_{0} > F_{a-\alpha}(\nu_{_{A}},​\nu_{_{E}})$ 
-===== 각 수준의 모평균의 추정 ===== 
- ​[[인자]] $A$의 [[모평균]]에 관한 [[추정]] 
- 
- $i$ [[수준]]에서의 [[모평균]] $\mu(A_{i})$의 [[점추정]]값 
- 
-  * $$\hat{\mu}(A_{i})=\widehat{\mu + a_{i}} = \overline{y}_{i.}$$ 
- 
- $i$ [[수준]]에서의 [[모평균]] $\mu(A_{i})$의 $100(1-\alpha) \%$ [[신뢰구간]]은 아래와 같다. 
- 
-  * $$\hat{\mu}(A_{i})= \left( \overline{y}_{i.} - t_{\alpha/​2}(\nu^{*}) \sqrt{\frac{V_{B}+(l-1)V_{E}}{lm}} \ , \ \overline{y}_{i.} + t_{\alpha/​2}(\nu^{*}) \sqrt{\frac{V_{B}+(l-1)V_{E}}{lm}} \right)$$ 
-    * 단, $\nu^{*}$는 [[등가자유도]]로 $\nu_{*} = \frac{ [[ V_{B}+(l-1)V_{E} ]] ^{2} }{V_{B}^{ \ 2} / \nu_{B} + [[ (l-1)V_{E} ]] ^{2} / \nu_{E}}$ 이다. 
-===== 각 수준의 모평균차의 추정 ===== 
- ​[[인자]] $A$의 [[모평균]]차에 관한 [[추정]] 
- 
- $i$ [[수준]]과 $j$ [[수준]]의 [[모평균]]차 $\mu(A_{i})-\mu(A_{j})$의 [[점추정]]값 
- 
-  * $$\widehat{\mu(A_{i})-\mu(A_{j})} = \overline{y}_{i.} - \overline{y}_{j.}$$ 
- 
- $i$ [[수준]]과 $j$ [[수준]]의 [[모평균]]차 $\mu(A_{i})-\mu(A_{j})$의 $100(1-\alpha) \%$ [[신뢰구간]]은 아래와 같다. 
- 
-  * $$\widehat{\mu(A_{i})-\mu(A_{j})}= \left( (\overline{y}_{i.} - \overline{y}_{j.}) - t_{\alpha/​2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{m}} \ , \ (\overline{y}_{i.} - \overline{y}_{j.}) + t_{\alpha/​2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{m}} \right)$$ 
-===== 분산의 추정 ===== 
- ​$$\hat{\sigma}_{B}^{ \ 2} = \frac{V_{B}-V_{E}}{l}$$ 
- 
----- 
-  * [[실험계획법]] 
-  * [[결측치추정(Yates방법)]]