集合$T=\{ 0,1,2, \cdots, i , \cdots, n \}$は 次の半順序構造を持つとしよう. \begin{align*} 0 < i \qquad(i=1,2, \cdots, n) \end{align*} 同じ意味で,木構造 $(T, \tau: T \setminus \{0\} \to T )$ において, 親写像$\tau: T \setminus \{0\} \to T$が次図を満たす:



$\fbox{注釈15.1}$ 回帰分析においては、 "古典決定的因果作用素"に集中する. したがって, 定理 12.8によって、 並行構造に限定しても一般性を失わない。,

各 $i \in T$に対して 局所コンパクト空間 $\Omega_i$を次のように定める.

\begin{align} & \Omega_{0}={\mathbb R}^{2} = \Big\{ \beta =\begin{bmatrix} \beta_0 \\ \beta_1 \\ \end{bmatrix} \;:\; \beta_0, \beta_1 \in {\mathbb R} \Big\} \quad \tag{15.11} \\ & \Omega_{i}={\mathbb R} = \Big\{ \mu_i \;:\; \mu_i \in {\mathbb R} \Big\} \quad(i=1,2, \cdots, n ) \tag{15.12} \end{align} 数列 $\{ a_i \}_{i=1}^n$を固定する. すなわち, \begin{align} a_i \in {\mathbb R} \qquad (i=1,2, \cdots, n ), \tag{15.13} \end{align}

通常の統計学では,これは 「説明変数」 と呼ばれるものである. ここで, 各$a_i$に対して, 決定的因果写像 $\psi_{a_i}: \Omega_0(={\mathbb R}^2) \to \Omega_{i} (={\mathbb R})$ を次のように定める.

\begin{align} \Omega_0={\mathbb R}^2 \ni \beta =(\beta_0, \beta_1 ) \mapsto \psi_{a_i} ( \beta_0, \beta_1) = \beta_0 + \beta_1 a_i= \mu_i \in \Omega_i ={\mathbb R} \tag{15.14} \end{align}

これは, 次の決定的マルコフ 作用素 $\Psi_{a_i}: L^\infty(\Omega_{i}) \to L^\infty(\Omega_0)$ と同値である.

\begin{align} [{\Psi_{a_i}}(f_i)](\omega_0) = f_i( \psi_{a_i} (\omega_0)) \quad (\forall f_i \in L^\infty(\Omega_{i}), \;\; \forall \omega_0 \in \Omega_0, \forall i \in 1,2, \cdots, n) \tag{15.15} \end{align}

したがって,同一視:$a_i \Leftrightarrow \Psi_{a_i}$のもとで, 「説明変数」は 因果関係 $\Psi_{a_i}$ を表すと解する.






各 $i=1,2, \cdots, n$, $L^\infty (\Omega_{i}(\equiv {\mathbb R}))$内の 正規観測量 ${\mathsf O}_{i} {{\equiv}} ({\mathbb R}, {\cal B}_{{\mathbb R}}, G_{\sigma_{}})$ を次のように定める.

\begin{align} & [G_{\sigma_{}}(\Xi)] (\mu ) = \frac{1}{(\sqrt{2 \pi \sigma_{}^2})} \underset{\Xi}{\int} \exp \Big[{- \frac{ (x -\mu )^2 }{2 \sigma_{}^2}} \Big] dx \qquad (\forall \Xi \in {\cal B}_{{\mathbb R}}, \forall \mu \in \Omega_{i} (\equiv {\mathbb R} )) \tag{15.16} \end{align} ここに,正数$\sigma $は固定されているとする.

したがって, 観測量 ${\mathsf O}_{0}^{a_i} {{\equiv}} ({\mathbb R}, {\cal B}_{{\mathbb R}}, \Psi_{a_i}G_{\sigma_{}})$ (in $L^\infty (\Omega_{0}(\equiv {\mathbb R}^2))$ ) を次のように定義する.

\begin{align} & [\Psi_{a_i}(G_{\sigma_{}}(\Xi))] (\beta ) = [(G_{\sigma_{}}(\Xi))] (\psi_{a_i}(\beta )) = \frac{1}{(\sqrt{2 \pi \sigma_{}^2})} \underset{\Xi}{\int} \exp \Big[{- \frac{ (x - (\beta_0 + a_{i{}} \beta_1 ))^2}{2 \sigma_{}^2}} \Big] dx \tag{15.17} \\ & \qquad (\forall \Xi \in {\cal B}_{{\mathbb R}}, \forall \beta =(\beta_0, \beta_1 )\in \Omega_{0} (\equiv {\mathbb R}^{2} ) \nonumber \end{align}

よって, これらの同時観測量 ${\mathop{\mbox{ $\times$}}}_{i=1}^n{\mathsf O}_{0}^{a_i} {{\equiv}} ({\mathbb R}^n, {\cal B}_{{\mathbb R}^n}, {\mathop{\mbox{ $\times$}}}_{i=1}^n \Psi_{a_i}G_{\sigma_{}})$ (in $L^\infty (\Omega_{0}(\equiv {\mathbb R}^2))$) を次のように得る.

\begin{align} & [({\mathop{\mbox{ $\times$}}}_{i=1}^n \Psi_{a_i}G_{\sigma_{}}) ({\mathop{\mbox{ $\times$}}}_{i=1}^n \Xi_i)](\beta) = {\mathop{\mbox{ $\times$}}}_{i=1}^n \Big( [\Psi_{a_i}G_{\sigma_{}}) (\Xi_i)](\beta)\Big) \nonumber \\ = & \frac{1}{(\sqrt{2 \pi \sigma_{}^2})^n} \underset{{\mathop{\mbox{ $\times$}}}_{i=1}^n \Xi_i}{\int \cdots \int} \exp \Big[{- \frac{ \sum_{i=1}^n (x_i - (\beta_0 + a_{i{}} \beta_1 ))^2}{2 \sigma_{}^2}} \Big] dx_1 \cdots dx_n \nonumber \\ = & \underset{{\mathop{\mbox{ $\times$}}}_{i=1}^n \Xi_i}{\int \cdots \int} p_{(\beta_0, \beta_1, \sigma )} (x_1, x_2, \cdots, x_n ) dx_1 \cdots dx_n \tag{15.18} \\ & \qquad \qquad \qquad (\forall {\mathop{\mbox{ $\times$}}}_{i=1}^n \Xi_i \in {\cal B}_{{\mathbb R}^n}, \forall \beta =(\beta_0, \beta_1 ) \in \Omega_{0} (\equiv {\mathbb R}^{2} ) ) \nonumber \end{align}

さて,ここで,正数$\sigma$を変数と見なして,$L^\infty ( \Omega_0 \times {\mathbb R}_+ )$内の観測量 ${\mathsf O}= \Big({\mathbb R}^n(=X) , {\mathcal B}_{{\mathbb R}^n}(={\mathcal F}), F \Big)$ を以下のように定める:

\begin{align} & [F({\mathop{\mbox{ $\times$}}}_{i=1}^n \Xi_i )](\beta, \sigma_{}) = [({\mathop{\mbox{ $\times$}}}_{i=1}^n \Psi_{a_i}G_{\sigma_{}}) ({\mathop{\mbox{ $\times$}}}_{i=1}^n \Xi_i)](\beta) \quad (\forall \Xi_i \in {\cal B}_{{\mathbb R}}, \forall (\beta , \sigma_{} ) \in {\mathbb R}^2(\equiv \Omega_0) \times {\mathbb R}_+ ) \\ & \tag{15.19} \end{align}



問題15.3 [回帰分析の量子言語表現]

[回帰分析(量子言語による)] \sl 測定 ${\mathsf M}_{L^\infty (\Omega_{0} \times {\mathbb R}_+)}( {\mathsf O} \equiv (X, {\cal F}, F) , S_{[(\beta_0,\beta_1, \sigma)]} {} )$によって, 測定値 $x=\begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{bmatrix} ( \in X={\mathbb R}^n )$ が得られたとしよう(通常の統計学では、この測定値のことを 「目的変数」 という). ここで,状態 $ (\beta_0, \beta_1, \sigma_{}^2 )$ は未知として, これらの $ (\beta_0, \beta_1, \sigma_{}^2 )$ を測定値$ x=( x_1, x_2, \ldots, x_n ) (\in {\mathbb R}^{n})$から推定せよ.



解答 $\log$-尤度 $L(\beta_0, \beta_1, \sigma^2, x_1, x_2, \cdots, x_n)=\log p_{(\beta_0, \beta_1, \sigma )} (x_1, x_2, \cdots, x_n )$ を $\beta_0$, $\beta_1 $, $\sigma_{}^2$ に関して,偏微分して, 次を得る. \begin{align} & \frac{\partial L}{\partial \beta_0}=0 \quad \Longrightarrow \quad {\sum_{i=1}^n {(x_i - (\beta_0 + {{}} a_{i{}} \beta_1 ))} } =0 \tag{15.20} \\ & \frac{\partial L}{\partial \beta_1}=0 \quad \Longrightarrow \quad {\sum_{i=1}^n {a_{i{}}(x_i - (\beta_0 + {{}} a_{i{}} \beta_1 ))} } =0 \tag{15.21} \\ & \frac{\partial L}{\partial \sigma^2}=0 \quad \Longrightarrow -\frac{n}{2\sigma_{}^2} + \frac{1}{2\sigma_{}^4} {\sum_{i=1}^n ({}x_i - \beta_0 - \beta_1 a_i{})^2 } =0 \tag{15.22} \end{align}


したがって, 記法 (15.7)-(15.9) から, 次を得る. \begin{align} & \hat{\beta}_0(x)=\overline{x} -\hat{\beta}_1(x) \overline{a}=\overline{x} -\frac{s_{ax}}{s_{aa}} \overline{a}, \quad \hat{\beta}_1(x)=\frac{s_{ax}}{s_{aa}} \tag{15.23} \end{align} そして, \begin{align} & (\hat{\sigma_{}}(x))^2= \frac{\sum_{i=1}^n \Big( x_i - ( \hat{\beta}_0 (x)+ a_{i{}} \hat{\beta}_1 (x) ) \Big)^2}{n} \nonumber \\ = & \frac{\sum_{i=1}^n \Big( x_i - ( \overline{x} -\frac{s_{ax}}{s_{aa}} \overline{a}) - a_i \frac{s_{ax}}{s_{aa}} \Big)^2}{n} = \frac{\sum_{i=1}^n \Big(( x_i - \overline{x}) +( \overline{a} - a_i) \frac{s_{ax}}{s_{aa}} \Big)^2}{n} \nonumber \\ = & s_{xx} - 2 s_{ax}\frac{s_{ax}}{s_{aa}} + s_{aa}(\frac{s_{ax}}{s_{aa}})^2 = s_{xx} - \frac{s_{ax}^2}{s_{aa}} \tag{15.24} \end{align}

注意15.4 さて,ここで,

$(A):$ 「最小二乗法:(15.6)」と 「回帰分析 (15.23)と(15.24)」 は同じ結果
すなわち、計算結果は
  • 最小二乗法=回帰分析
であることに注目してもらいたい. したがって, 小さな技法(最小二乗法)を大きな物語(量子言語)の中で, 理解できたと考える.簡単な最小二乗法を,量子言語の中で(または,統計学の中で)理解するためにわざわざ複雑にしたのが,回帰分析であるが,もちろん,それには意味がある. 
  • 「簡単すぎて見っともないから、難しくして恰好をつける」 というわけではない。
回帰分析として理解すれば,量子言語(または,統計学)の中の他の理論(信頼区間法や仮説検定)と関連付けることが可能になるからで,このことを次節で述べる.