meta data for this page
  •  

차이

문서의 선택한 두 판 사이의 차이를 보여줍니다.

차이 보기로 링크

양쪽 이전 판 이전 판
다음 판
이전 판
일원배치법_모수모형_반복수_불균일 [2012/07/23 18:24]
moonrepeat [데이터 구조]
일원배치법_모수모형_반복수_불균일 [2021/03/10 21:42] (현재)
줄 9: 줄 9:
  
   * $e_{ij} \sim N(0, \sigma_{E}^{ \ 2})$이고 서로 [[독립]]   * $e_{ij} \sim N(0, \sigma_{E}^{ \ 2})$이고 서로 [[독립]]
-===== [가설===== +===== 가설 ===== 
- ​[인자] ​$$A$$ 의 각 수준에서 [특성치]의 차이가 유의한가?​+ [[인자]$A$의 각 [[수준]]에서 ​[[특성치]]의 차이가 유의한가?​
  
-  [귀무가설] : $$H_{0} : a_{1} = a_{2} = \cdots = a_{l} = 0$$+  ​* [[귀무가설]] : $H_{0} : a_{1} = a_{2} = \cdots = a_{l} = 0$ 
 +  * [[대립가설]] : $H_{1} : a_{i} \neq 0$
  
-  ​[대립가설$$H_{1} a_{i} \neq 0$$+ ​또한, ​[[모수모형]]은 $\sigma_{_{A}}^{ \ \ 2} = \sum_{i=1}^{l} \frac{a_{i}^{ \ 2}}{l-1}$이므로
  
- +  * [[귀무가설]] : $H_{0} : \sigma_{_{A}}^{ \ \ 2} = 0$ 
- ​또한, ​[모수모형]은&​nbsp&​nbsp $$\sigma_{_{A}}^{ \ \ 2} = \sum_{i=1}^{l} \frac{a_{i}^{ \ \ 2}}{l-1}$$ 이므로 +  ​* [[대립가설]] : $H_{1} : \sigma_{_{A}}^{ \ \ 2} > 0$
- +
-  ​[귀무가설] : $$H_{0} : \sigma_{_{A}}^{ \ \ 2} = 0$$ +
- +
-  [대립가설] : $$H_{1} : \sigma_{_{A}}^{ \ \ 2} > 0$$+
  
  로 표현 가능하다.  로 표현 가능하다.
----- 
 ===== 자료의 구조 ===== ===== 자료의 구조 =====
- ||<​|2>​ |||||||||| '''​[인자]의 수준'''​ ||<​|2>​ '''​합계'''​ |+^  ^  [[인자]]의 [[수준]]  ^^^^^  ​합계 ​ 
- || $$A_{1}$$ ​|| $$A_{2}$$ ​|| $$A_{3}$$ ​|| $$\cdots$$ ​|| $$A_{l}$$ ​|+^:::​^  ​$$A_{1}$$ ​ ​^  ​$$A_{2}$$ ​ ​^  ​$$A_{3}$$ ​ ​^  ​$$\cdots$$ ​ ​^  ​$$A_{l}$$ ​ ^:::
- |||||||||||||| || + 실험의\\ [[반복]]   $$y_{11}$$ ​  $$y_{21}$$ ​  $$y_{31}$$ ​  $$\cdots$$ ​  $$y_{l1}$$ ​  |  
- ​||<​|4>​ '''​실험의'''​[[BR]]'''​반 복'''​ || $$y_{11}$$ |$$y_{21}$$ |$$y_{31}$$ |$$\cdots$$ |$$y_{l1}$$ ||<|4> |+|::: $$y_{12}$$ ​  $$y_{22}$$ ​  $$y_{32}$$ ​  $$\cdots$$ ​  $$y_{l2}$$ ​ |:::
- || $$y_{12}$$ |$$y_{22}$$ |$$y_{32}$$ |$$\cdots$$ |$$y_{l2}$$ || +|::: $$\vdots$$ ​  $$\vdots$$ ​  $$\vdots$$ ​    |  $$\vdots$$ ​ |:::
- || $$\vdots$$ |$$\vdots$$ |$$\vdots$$ ||  ​|| $$\vdots$$ || +|::: $$y_{1r_{1}}$$ ​  $$y_{2r_{2}}$$ ​  $$y_{3r_{3}}$$ ​  $$\cdots$$ ​  $$y_{lr_{l}}$$ ​ |:::
- || $$y_{1r_{1}}$$ |$$y_{2r_{2}}$$ |$$y_{3r_{3}}$$ |$$\cdots$$ |$$y_{lr_{l}}$$ || +^  ​합계 ​ ​^  ​$$T_{1.}$$ ​ ​^  ​$$T_{2.}$$ ​ ​^  ​$$T_{3.}$$ ​ ​^  ​$$\cdots$$ ​ ​^  ​$$T_{l.}$$ ​ ​^  ​$$T$$  |  
- |||||||||||||| || +^  [[평균]]  ^  ​$$\overline{y}_{1.}$$ ​ ​^  ​$$\overline{y}_{2.}$$ ​ ​^  ​$$\overline{y}_{3.}$$ ​ ​^  ​$$\cdots$$ ​ ​^  ​$$\overline{y}_{l.}$$  ​^   $$\overline{\overline{y}}$$ ​ 
- || '''​합계'''​ || $$T_{1.}$$ ​|| $$T_{2.}$$ ​|| $$T_{3.}$$ ​|| $$\cdots$$ ​|| $$T_{l.}$$ ​|| $$T$$ |+
- || '''​[평균]'''​ || $$\overline{y}_{1.}$$ ​|| $$\overline{y}_{2.}$$ ​|| $$\overline{y}_{3.}$$ ​|| $$\cdots$$ ​|| $$\overline{y}_{l.}$$ ​||  ​$$\overline{\overline{y}}$$ ​||+
  
-  || $$T = \sum_{i=1}^{l} \sum_{j=1}^{r_{i}} y_{ij}$$ ​|| $$\overline{\overline{y}} = \frac{T}{N}$$ ​|+| $$T = \sum_{i=1}^{l} \sum_{j=1}^{r_{i}} y_{ij}$$ | $$\overline{\overline{y}} = \frac{T}{N}$$ | 
-  || $$T_{i.} = \sum_{j=1}^{r_{i}} y_{ij}$$ ​|| $$\overline{y}_{i.} = \frac{T_{i.}}{r_{i}}$$ ​|+| $$T_{i.} = \sum_{j=1}^{r_{i}} y_{ij}$$ | $$\overline{y}_{i.} = \frac{T_{i.}}{r_{i}}$$ | 
-  || $$N = \sum_{i=1}^{l} r_{i}$$ ​|| $$CT = \frac{T^{2}}{N}$$ |+| $$N = \sum_{i=1}^{l} r_{i}$$ | $$CT = \frac{T^{2}}{N}$$ | 
----- +===== 제곱합 ===== 
-===== [제곱합===== + ​개개의 데이터 $y_{ij}$와 총 [[평균]$\overline{\overline{y}}$의 차이는 다음과 같이 두 부분으로 나뉘어진다.
- ​개개의 데이터&​nbsp&​nbsp $$y_{ij}$$ 와 총 [평균]&​nbsp&​nbsp $$\overline{\overline{y}}$$ 의 차이는 다음과 같이 두 부분으로 나뉘어진다.+
  
-  ​$$(y_{ij} - \overline{\overline{y}}) = (\overline{y}_{i.} - \overline{\overline{y}}) + (y_{ij} - \overline{y}_{i.})$$+ $$(y_{ij} - \overline{\overline{y}}) = (\overline{y}_{i.} - \overline{\overline{y}}) + (y_{ij} - \overline{y}_{i.})$$
  
- ​양변을 제곱한 후에 모든&​nbsp&​nbsp $$i$$ 와&​nbsp&​nbsp $$j$$ 에 대하여 합하면 아래의 등식을 얻을 수 있다.+ ​양변을 제곱한 후에 모든 $i$와 $j$에 대하여 합하면 아래의 등식을 얻을 수 있다.
  
-  ​$$\sum_{i=1}^{l}\sum_{j=1}^{r_{i}}(y_{ij} - \overline{\overline{y}})^{2} = \sum_{i=1}^{l}\sum_{j=1}^{r_{i}}(\overline{y}_{i.} - \overline{\overline{y}})^{2} + \sum_{i=1}^{l}\sum_{j=1}^{r_{i}}(y_{ij} - \overline{y}_{i.})$$ + $$\sum_{i=1}^{l}\sum_{j=1}^{r_{i}}(y_{ij} - \overline{\overline{y}})^{2} = \sum_{i=1}^{l}\sum_{j=1}^{r_{i}}(\overline{y}_{i.} - \overline{\overline{y}})^{2} + \sum_{i=1}^{l}\sum_{j=1}^{r_{i}}(y_{ij} - \overline{y}_{i.})$$
- +
- 위 식에서 왼쪽 항은 총변동 $$S_{T}$$ 이고, 오른쪽 항은 차례대로&​nbsp&​nbsp $$A$$ 의 [변동], [오차변동]인&​nbsp&​nbsp $$S_{A}$$ , $$S_{E}$$ 가 된다.+
  
 + 위 식에서 왼쪽 항은 총변동 $S_{T}$이고,​ 오른쪽 항은 차례대로 $A$의 [[변동]], [[오차변동]]인 $S_{A}$, $S_{E}$가 된다.
  
  ​$$\begin{displaymath}\begin{split} S_{_{T}} &= \sum_{i=1}^{l} \sum_{j=1}^{r_{i}} (y_{ij}- \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} \sum_{j=1}^{r_{i}} y_{ij}^{2} - CT \end{split}\end{displaymath}$$  ​$$\begin{displaymath}\begin{split} S_{_{T}} &= \sum_{i=1}^{l} \sum_{j=1}^{r_{i}} (y_{ij}- \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} \sum_{j=1}^{r_{i}} y_{ij}^{2} - CT \end{split}\end{displaymath}$$
줄 59: 줄 51:
  ​$$\begin{displaymath}\begin{split} S_{_{E}} &= \sum_{i=1}^{l} \sum_{j=1}^{r_{i}} (y_{ij} - \overline{y}_{i.})^{2} \\ &= S_{_{T}}-S_{_{A}} \end{split}\end{displaymath}$$  ​$$\begin{displaymath}\begin{split} S_{_{E}} &= \sum_{i=1}^{l} \sum_{j=1}^{r_{i}} (y_{ij} - \overline{y}_{i.})^{2} \\ &= S_{_{T}}-S_{_{A}} \end{split}\end{displaymath}$$
  
- + 단, $CT$는 $CT =\frac{T^{2}}{N}$으로 ​[[수정항]]이라 부른다. 
-  단,&​nbsp&​nbsp $$CT$$ 는&​nbsp&​nbsp $$CT =\frac{T^{2}}{N}$$ 으로 [수정항]이라 부른다. +===== 자유도 =====
----- +
-===== [자유도=====+
  ​$$\nu_{_{A}} = l - 1$$  ​$$\nu_{_{A}} = l - 1$$
  
줄 68: 줄 58:
  
  ​$$\nu_{_{T}} = N-1$$  ​$$\nu_{_{T}} = N-1$$
----- +===== 평균제곱 =====
-===== [평균제곱=====+
  ​$$V_{_{A}} = \frac{S_{_{A}}}{\nu_{_{A}}}$$  ​$$V_{_{A}} = \frac{S_{_{A}}}{\nu_{_{A}}}$$
  
  ​$$V_{_{E}} = \frac{S_{_{E}}}{\nu_{_{E}}}$$  ​$$V_{_{E}} = \frac{S_{_{E}}}{\nu_{_{E}}}$$
----- +===== 평균제곱의 기대값 =====
-===== [평균제곱의 기대값=====+
  ​$$E(V_{A}) = \sigma_{E}^{ \ 2} + \frac{\sum_{i=1}^{l} r_{i}a_{i}^{ \ 2}}{l-1}$$  ​$$E(V_{A}) = \sigma_{E}^{ \ 2} + \frac{\sum_{i=1}^{l} r_{i}a_{i}^{ \ 2}}{l-1}$$
  
  ​$$E(V_{E}) = \sigma_{E}^{ \ 2}$$  ​$$E(V_{E}) = \sigma_{E}^{ \ 2}$$
----- +===== 분산분석표 ===== 
-===== [분산분석표===== +^  [[요인]]  ^  [[제곱합]]\\ $SS$  ​^ ​ [[자유도]]\\ $DF$  ​^ ​ [[평균제곱]]\\ $MS$  ​^  ​$E(MS)$ ​ ​^  ​$F_{0}$ ​ ​^ ​ [[기각치]]  ^  [[순변동]]\\ $S\acute{}$ ​ ​^ ​ [[기여율]]\\ $\rho$ ​ |  
- || '''​[요인]'''​ || '''​[제곱합]'''​ $$SS$$ || '''​[자유도]'''​ $$DF$$ || '''​[평균제곱]'''​ $$MS$$ || $$E(MS)$$ || $$F_{0}$$ || '''​기각치'''​ || '''​[순변동]'''​ $$ S\acute{} $$ || '''​[기여율]'''​ $$\rho$$ |+ $$A$$   $$S_{_{A}}$$ ​  $$\nu_{_{A}} = l - 1$$   $$V_{_{A}} = S_{_{A}} / \nu_{_{A}}$$ ​  $$\sigma_{E}^{ \ 2} + \frac{\sum_{i=1}^{l} r_{i}^{ \ 2} a_{i}^{ \ 2}}{l-1}$$ ​  $$V_{_{A}}/​V_{_{E}}$$ ​  $$F_{1-\alpha}(\nu_{_{A}} \ , \ \nu_{_{E}})$$ ​  $$S_{_{A}}\acute{} = S_{_{A}} - \nu_{_{A}} \ V_{_{E}}$$ ​  $$S_{_{A}}\acute{} / S_{_{T}} $$  |  
- |||||||||||||||||| || + $$E$$   $$S_{_{E}}$$ ​  $$\nu_{_{E}} = l(r - 1)$$   $$V_{_{E}} = S_{_{E}} / \nu_{_{E}}$$ ​  $$\sigma_{_{E}}^{ \ 2}$$        |  $$S_{_{E}}\acute{} = S_{_{T}} - S_{_{A}}\acute{}$$ ​  $$S_{_{E}}\acute{} / S_{_{T}} $$  |  
- ​|| ​$$A$$ |$$S_{_{A}}$$ |$$\nu_{_{A}} = l - 1$$ |$$V_{_{A}} = S_{_{A}} / \nu_{_{A}}$$ |$$\sigma_{E}^{ \ 2} + \frac{\sum_{i=1}^{l} r_{i}^{ \ 2} a_{i}^{ \ 2}}{l-1}$$ |$$V_{_{A}}/​V_{_{E}}$$ |$$F_{1-\alpha}(\nu_{_{A}} \ , \ \nu_{_{E}})$$ |$$S_{_{A}}\acute{} = S_{_{A}} - \nu_{_{A}} \ V_{_{E}}$$ |$$S_{_{A}}\acute{} / S_{_{T}} $$ |+ $$T$$   $$S_{_{T}}$$ ​  $$\nu_{_{T}} = lr - 1$$    ​  ​  ​  ​ $$S_{_{T}}$$ ​  $$1$$  |  
- |$$E$$ |$$S_{_{E}}$$ |$$\nu_{_{E}} = l(r - 1)$$ |$$V_{_{E}} = S_{_{E}} / \nu_{_{E}}$$ |$$\sigma_{_{E}}^{ \ 2}$$ ||  ||  ​|| $$S_{_{E}}\acute{} = S_{_{T}} - S_{_{A}}\acute{}$$ |$$S_{_{E}}\acute{} / S_{_{T}} $$ |+===== 분산분석 =====
- |||||||||||||||||| || +
- ​|| ​$$T$$ |$$S_{_{T}}$$ |$$\nu_{_{T}} = lr - 1$$ || || || || || $$S_{_{T}}$$ |$$1$$ || +
----- +
-===== [분산분석=====+
  ​$$F_{0}=\frac{V_{_{A}}}{V_{_{E}}}$$  ​$$F_{0}=\frac{V_{_{A}}}{V_{_{E}}}$$
  
- ​기각역 :&​nbsp&​nbsp $$F_{0} > F(\nu_{_{A}},​\nu_{_{E}} \ ; \ \alpha)$+ [[기각역]] : $F_{0} > F(\nu_{_{A}},​\nu_{_{E}} \ ; \ \alpha)$ 
----- +===== 각 수준의 모평균의 추정 ===== 
-===== 각 [수준]의 [모평균]의 [추정===== + ​$\mu_{i}$의 $100(1-\alpha) \% $ [[신뢰구간]]은 아래와 같다.
- $$\mu_{i}$$ 의&​nbsp&​nbsp $$100(1-\alpha) \% $$ [신뢰구간]은 아래와 같다.+
  
-  ​$$\mu_{i} = \left( \ \overline{y}_{i.} - t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{\frac{V_{_{E}}}{r_{i}}} \ , \ \overline{y}_{i.} + t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{\frac{V_{_{E}}}{r_{i}}} \ \right)$$ + $$\mu_{i} = \left( \ \overline{y}_{i.} - t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{\frac{V_{_{E}}}{r_{i}}} \ , \ \overline{y}_{i.} + t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{\frac{V_{_{E}}}{r_{i}}} \ \right)$$ 
----- +===== 각 수준의 모평균차의 추정 ===== 
-===== 각 [수준]의 [모평균차]의 [추정===== + ​$\mu_{i} - \mu_{j}$의 $100(1-\alpha) \%$ [[신뢰구간]]은 아래와 같다.
- $$\mu_{i} - \mu_{j}$$ 의&​nbsp&​nbsp $$100(1-\alpha) \% $$ [신뢰구간]은 아래와 같다.+
  
-  ​$$\mu_{i} - \mu_{j} = \left( \ (\overline{y}_{i.} - \overline{y}_{j.}) - t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{V_{_{E}} \left( \frac{1}{r_{i}} + \frac{1}{r_{j}} \right) } \ , \ (\overline{y}_{i.} - \overline{y}_{j.}) + t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{V_{_{E}} \left( \frac{1}{r_{i}} + \frac{1}{r_{j}} \right) } \ \right) $$ + $$\mu_{i} - \mu_{j} = \left( \ (\overline{y}_{i.} - \overline{y}_{j.}) - t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{V_{_{E}} \left( \frac{1}{r_{i}} + \frac{1}{r_{j}} \right) } \ , \ (\overline{y}_{i.} - \overline{y}_{j.}) + t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{V_{_{E}} \left( \frac{1}{r_{i}} + \frac{1}{r_{j}} \right) } \ \right) $$ 
----- +===== 각 수준의 모평균차의 검정 ===== 
-===== 각 [수준]의 [모평균차]의 [검정===== + ​두 ​[[수준]$i$, $j$간의 ​[[표본평균]]의 차 $| \overline{y}_{i.} - \overline{y}_{j.} |$를 구하여 이 값이 ​[[최소유의차]]([[LSD]])보다 크면 두 [[수준]]간에 차이가 유의하고 반대로 작으면 두 [[수준]]간의 차이는 유의하지 않다고 결론내릴 수 있다.
- 두 [수준]&​nbsp&​nbsp ​$$i,j$$ 간의 [표본평균]의 차&​nbsp&​nbsp $$ | \overline{y}_{i.} - \overline{y}_{j.} | $$ 를 구하여 이 값이 [최소유의차]([LSD])보다 크면 두 [수준]간에 차이가 유의하고 반대로 작으면 두 [수준]간의 차이는 유의하지 않다고 결론내릴 수 있다.+
  
- ​[최소유의차]&​nbsp&​nbsp ​[LSD]는 아래와 같다.+ [[최소유의차]] [[LSD]]는 아래와 같다.
  
-  ​$$\operatorname{LSD} = t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{V_{_{E}} \left( \frac{1}{r_{i}} + \frac{1}{r_{j}} \right) }$$ + $$\mathrm{LSD} = t_{\frac{\alpha}{2}}(\nu_{_{E}}) \sqrt{V_{_{E}} \left( \frac{1}{r_{i}} + \frac{1}{r_{j}} \right) }$$ 
----- +===== 오차분산의 추정 ===== 
-===== [오차분산]의 [추정===== + ​$\sigma_{_{E}}^{ \ \ 2}$의 $100(1-\alpha) \% $ [[신뢰구간]]은 아래와 같다.
- $$\sigma_{_{E}}^{ \ \ 2}$$ 의&​nbsp&​nbsp $$100(1-\alpha) \% $$ [신뢰구간]은 아래와 같다.+
  
-  ​$$\sigma_{_{E}}^{ \ \ 2} = \left( \frac{S_{_{E}}}{\chi^{2}_{\frac{\alpha}{2}} ( \nu_{_{E}}) } \ , \ \frac{S_{_{E}}}{\chi^{2}_{1-\frac{\alpha}{2}} ( \nu_{_{E}}) } \right)$$+ $$\sigma_{_{E}}^{ \ \ 2} = \left( \frac{S_{_{E}}}{\chi^{2}_{\frac{\alpha}{2}} ( \nu_{_{E}}) } \ , \ \frac{S_{_{E}}}{\chi^{2}_{1-\frac{\alpha}{2}} ( \nu_{_{E}}) } \right)$$
  
 ---- ----
   * [[실험계획법]]   * [[실험계획법]]
   * [[일원배치법]]   * [[일원배치법]]