統計検定1級 - 2017年 統計数理

問1

[1]

$\bar X = \sum^n_{i=1}X_i$であるので、

$$ \begin{align} E[\bar X] & = E[\frac{1}{n}\sum^{n}_{i=1}X_i] = \frac{1}{n} \sum^{n}_{i=1}E[X_i] = \frac{1}{n} n E[X] & \\ & = \frac{1}{n} n \mu = \mu & \\ V[\bar X] & = V[\frac{1}{n}\sum^{n}_{i=1}X_i] = \frac{1}{n^2} \sum^n_{i=1}V[X_i] = \frac{1}{n^2} nV[X] & \\ & = \frac{\sigma^2}{n} & \\ \end{align} $$

$T^2 = \frac{1}{n}\sum^n_{i=1}(X_i - \mu)^2$, $S^2 = \frac{1}{n-1}\sum^n_{i=1}(X_i - \bar X)^2$であるので、

$$ \begin{align} E[T^2] & = \frac{1}{n}\sum^n_{i=1}E[(X_i-\mu)^2] = \frac{1}{n} n \sigma^2 = \sigma^2 \\ \sum^n_{i=1}(X_i-\bar X)^2 & = \sum^n_{i=1}\{(X_i-\mu)-(\bar X-\mu)\}^2 &\\ \leftrightarrow \sum^n_{i=1}(X_i-\bar X)^2 & = \sum^n_{i=1}(X_i-\mu)^2 -n(\bar X - \mu)^2& \\ \leftrightarrow E[\frac{1}{n-1}\sum^n_{i=1}(X_i-\bar X)^2] & = \frac{1}{n-1}\sum^n_{i=1}E[(X_i-\mu)^2] -\frac{n}{n-1}E[(\bar X - \mu)^2]\ (両辺の期待値をとってn-1で割った)& \\ \leftrightarrow E[S^2] & = \frac{n}{n-1}\sigma^2 - \frac{n}{n-1}\frac{\sigma^2}{n} = \sigma^2& \\ \end{align} $$

以上により$T^2$, $S^2$は$\sigma^2$の不偏推定量である。

[2]

$$ \begin{align} (\bar X - E[\bar X])^3 & = (\bar X - \mu)^3 = \{\frac{1}{n}\sum^n_{i=1}(X_i - \mu)\}^3 & \\ & = \frac{1}{n^3} \frac{3!}{3!} \sum^n_{i=1}(X_i - \mu)^3 + \frac{1}{n^3} \frac{3!}{2!1!}\sum_{i \neq j}(X_i-\mu)^2(X_j-\mu) + \frac{1}{n^3}\frac{3!}{1!1!1!}\sum_{i<j<k}(X_i-\mu)(X_j-\mu)(X_k\mu)& \\ \end{align} $$

$X_1, ..., X_n$は独立かつ、$E[X_i-\mu] = 0 (i=1, 2, ..., n)$であることに注意すると、上記の両辺の期待値をとって

$$ \begin{align} E[(\bar X - E[\bar X])^3] & = \frac{1}{n^3} \sum^n_{i=1}E[(X_i-\mu)^3] + \frac{3}{n^3} \sum_{i \neq j}E[(X_j-\mu)^2]E[X_j-\mu] + \frac{6}{n^3}\sum_{i<j<k}E[X_i-\mu]E[X_j-\mu]E[X_k-\mu]& \\ & = \frac{1}{n^3}n \beta_1 \sigma^3 = \frac{\beta_1 \sigma^3}{n^2} & \\ \end{align} $$

よって

$$ \beta_1[\bar X] = \frac{E[(\bar X - E[\bar X])^3]}{(V[\bar X])^{\frac{3}{2}}} = \frac{\beta_1\sigma^3}{n^2}\frac{1}{(\frac{\sigma^2}{n})^{\frac{3}{2}}} = \frac{\beta_1}{n^{\frac{1}{2}}}\\ $$

[3]

$$ \begin{align} (\bar X - E[\bar X])^4 & = (\bar X - \mu)^4 = \{\frac{1}{n}\sum^n_{i=1}(X_i - \mu)\}^4& \\ & = \frac{1}{n^4}\left[\frac{4!}{4!}\sum^n_{i=1}(X_i-\mu)^4 + \frac{4!}{3!1!}\sum_{i \neq j} (X_i-\mu)^3(X_j-\mu) + \frac{4!}{2!2!}\sum_{i<j}(X_i-\mu)^2(X_j-\mu)^2 + \frac{4!}{2!1!1!} \sum_{i \neq j,k\ j<k}(X_i-\mu)^2(X_j-\mu)(X_k-\mu) + \frac{4!}{1!1!1!1!} \sum_{i<j<k<l}(X_i-\mu)(X_j-\mu)(X_k-\mu)(X_l-\mu)\right]& \\ \end{align} $$

$X_1, ..., X_n$は独立かつ、$E[X_i-\mu] = 0 (i=1, 2, ..., n)$であることに注意すると、上記の両辺の期待値をとって

$$ \begin{align} E[(\bar X - E[\bar X])^4] & = \frac{1}{n^4}\left[ \sum^n_{i=1}E[(X_i-\mu)^4 + 6\sum_{i<j}E[(X_i-\mu)^2]E[(X_j-\mu)^2]\right]& \\ & = \frac{1}{n^4}n(\beta_2+3)\sigma^4 + \frac{6}{n^4}{}_n C_2 \sigma^2 \sigma^2& \\ & = \frac{1}{n^3}(\beta_2+3)\sigma^4 + \frac{3(n-1)}{n^3}\sigma^4 = \frac{\sigma^4}{n^3}(\beta_2+3n)& \\ \end{align} $$

よって

$$ \beta_2[\bar X] = \frac{E[(\bar X - E[\bar X])^4]}{(V[\bar X])^{\frac{4}{2}}} - 3 = \frac{\frac{\sigma^4}{n^3}\{\beta_2+3n\}}{\frac{\sigma^4}{n^2}} - 3 = \frac{\beta_2+3n}{n} - 3 = \frac{\beta_2}{n} $$

[4]

問2、問3の結果から、

$$ \begin{align} \lim_{n\rightarrow \infty} \beta_1[\bar X] = 0, \lim_{n\rightarrow \infty} \beta_q[\bar X] = 0\\ \end{align} $$

であるのでnが十分に大きいとき歪度と尖度がそれぞれ0に収束することがわかる。

正規分布は歪度、尖度が0の分布であるので、$\bar X$は正規分布に近くと考えられる。

実際、中心極限定理により$\bar X$の分布は正規分布に近くことが示される。

[5]

$\mu$が既知のとき、$\sigma^2$の対数尤度関数$l(\sigma^2)$は、

$$ \begin{align} l(\sigma^2) & = \log \prod^n_{i=1}f(x_i) = -\frac{n}{2}\log 2\pi \sigma^2 - \sum^n_{i=1}(\frac{(x_i-\mu)^2}{2\sigma^2})&\\ \leftrightarrow \frac{\partial l(\sigma^2)}{\partial \sigma^2} & = -\frac{n}{2\sigma^2} +\frac{1}{2\sigma^4}\sum^n_{i=1}(x_i-\mu)^2& \\ \end{align} $$

よって、最尤推定は$\frac{\partial l(\sigma^2)}{\partial \sigma^2} = 0$より、

$$ \hat \sigma^2 = \frac{1}{n}\sum^n_{i=1}(x_i-\mu)^2 $$

よって、$T^2$は$\hat \sigma^2$の最尤推定量である。

また、$\mu$が未知のとき、

$$ \begin{align} l(\mu, \sigma^2) & = -\frac{n}{2}\log 2\pi \sigma^2 - \sum^n_{i=1}(\frac{(x_i-\mu)^2}{2\sigma^2})&\\ \leftrightarrow \frac{\partial l(\mu, \sigma^2)}{\partial \sigma^2} & = -\frac{n}{2\sigma^2} +\frac{1}{2\sigma^4}\sum^n_{i=1}(x_i-\mu)^2& \\ \frac{\partial l(\mu, \sigma^2)}{\partial \mu}& = \frac{1}{\sigma^2}\sum^n_{i=1}(x_i-\mu) = \frac{n}{\sigma^2}(\bar x - \mu)& \\ \end{align} $$

最尤推定は$\frac{\partial l(\mu, \sigma^2)}{\partial \mu} = 0$, $\frac{\partial l(\sigma^2)}{\partial \sigma^2} = 0$より、$\hat \mu = \bar x$

$$ \hat \sigma^2 = \frac{1}{n}\sum^n_{i=1}(X_i - \bar X)^2 = \frac{n-1}{n}S^2 $$

問2

[1]

題意より、$X_{max} = \max (X_1, ..., X_n)$

尤度関数は、 $$ l(\theta) = \prod^n_{i=1} f(x_i;\theta) = \prod^n_{i=1} \frac{{\bf 1}[x_i\leq \theta]}{\theta} = \frac{{\bf 1}[\max (x_1, ..., x_n)\leq \theta]}{\theta^n} $$

よって$x_{max} = \max (x_1, ..., x_n) > \theta$のとき、$l(\theta) = 0$であり、

$x_{max} \leq \theta$のとき、$l(x_{max}) \geq l(\theta)$であるので、$\theta=x_{max}$のとき尤度関数が最大になる。

以上より、$\theta$の最尤推定量は$\hat \theta = X_{max}$で与えられる。

[2]

$$ E[\theta'] = \frac{2}{n}\sum^n_{i=1}E[X_i] = \frac{2}{n}n\int^{\theta}_{0}x\frac{1}{\theta}dx = \frac{2}{\theta}\left[\frac{x^2}{2}\right]^{\theta}_0 = \theta $$

以上より、$\theta'$は$\theta$の不偏推定量である。

[3]

$X_{max} = \max (X_1,...,X_n)$の確率分布関数$F_{X_{max}}$を考えると、

$$ F_{X_{max}} = P(X_{max} \leq x) = \left[ \int^x_{0}\frac{1}{\theta}\right]^n = (\frac{x}{\theta})^n $$

であるので、確率密度関数$g(x;\theta)$は、

$$ g(x;\theta) = \frac{\partial F_{X_{max}}}{\partial x} = \frac{n}{\theta}(\frac{x}{\theta})^{n-1} $$

よって、

$$ E[X_{max}] = \int^{\theta}_0 x g(x;\theta)dx = n \int^{\theta}_0 (\frac{x}{\theta})^n dx = \frac{n}{n+1}\theta $$

すなわち

$$ E[\theta''] = \frac{n+1}{n}E[X_{max}] = \theta $$

以上により$\theta''$は$\theta$の不偏推定量である。

[4]

[2], [3]より、$\theta'$, $\theta''$はいずれも$\theta$の不偏推定量となっている。

そこで、それぞれの推定量の分散について比較する。

$$ \begin{align} E[X^2] & = \int^{\theta}_0 x^2 \frac{1}{\theta} dx = \frac{\theta^2}{3} & \\ V[X] & = \frac{\theta^2}{3} - \frac{\theta^2}{4} = \frac{\theta^2}{12}& \\ \end{align} $$

よって、

$$ \begin{align} V[\theta'] & = \frac{4}{n^2}\sum^n_{i=1}V[X_i] = \frac{n\theta^2}{3n^2} = \frac{\theta^2}{3n} & \end{align} $$

また、

$$ \begin{align} E[X_{max}^2] & = \int^{\theta}_0 x^2 \frac{n}{\theta}(\frac{x}{\theta})^{n-1} = \frac{n}{\theta^n}\int^{\theta}_0 x^{n+1} = \frac{n}{n+2}\theta^2&\\ V[X_{max}] & = \frac{n}{n+2}\theta^2 - \frac{n^2}{(n+1)^2}\theta^2 = \frac{n\theta^2}{(n+2)(n+1)^2}((n+1)^2 - n(n+2))& \\ & = \frac{n\theta^2}{(n+2)(n+1)^2} & \\ V[\theta''] & = \frac{\theta^2}{(n+2)(n+1)}& \\ \end{align} $$

よって、$V[\theta'] > V[\theta'']$であるので、$\theta''$の方が分散が小さいため、推定量としてより望ましい。

問3

[1]

題意より、$p = \frac{\lambda}{n}$を$f(x)$に代入した式を$f(x;\frac{\lambda}{n})$とすると、

$$ \begin{align} f(x;\frac{\lambda}{n}) & = {}_n C_x(\frac{\lambda}{n})^x (1-\frac{\lambda}{n})^{n-x} = \frac{n(n-1)...(n-(x-1))}{x!} (\frac{\lambda}{n})^x (1-\frac{\lambda}{n})^{n-x}& \\ & = \frac{\lambda^x}{x!}(1-\frac{1}{n})(1-\frac{2}{n})...(1-\frac{x-1}{n})(1-\frac{\lambda}{n})^{-x}\left[\left(1-\frac{\lambda}{n}\right)^{\frac{-n}{\lambda}}\right]^{-\lambda} & \\ \end{align} $$

ここで、$n \rightarrow \infty$とすると、

$$ f(x;\frac{\lambda}{n}) \rightarrow \frac{\lambda^x}{x!}e^{-\lambda} = p(x) $$

これはポアソン分布の確率密度関数となっている。

[2]

$$ \begin{align} M_X[t] & = E[e^{tX}] = \sum^{\infty}_{x=0}e^{tx}\frac{\lambda^x}{x!}e^{-\lambda} = e^{-\lambda}\sum^{\infty}_{x=0} \frac{(\lambda e^t)^x}{x!} & \\ & = e^{-\lambda}e^{{\lambda e^t}}\ (テイラー展開を用いた)& \\ & = e^{\lambda(e^t-1)}& \\ \end{align} $$

以上により、

$$ \begin{align} M_X'[t] & = E[Xe^{tX}] = \lambda e^t e^{\lambda(e^t-1)}& \\ M_X''[t] & = E[X^2e^{tX}] = \lambda e^t e^{\lambda(e^t-1)} + (\lambda e^t)^2 e^{\lambda(e^t-1)} \end{align} $$

$t=0$を代入すると

$$ \begin{align} E[X] & = M_X'[0] = \lambda& \\ E[X^2] & = M_X''[0] = \lambda(\lambda+1)& \\ V[X] & = \lambda& \\ \end{align} $$

[3]

パラメータ$\lambda$のポアソン分布を$Po(\lambda)$と書くとすると、題意より、

$$ X_1 \sim Po(\lambda_1) \\ X_2 \sim Po(\lambda_2) \\ $$

ポアソン分布の再生性より、$Y=X_1+X_2 \sim Po(\lambda_1 + \lambda_2)$となり、$Y$はパラメータ$\lambda_1 +\lambda_2 $のポアソン分布に従う。

念のため、確率変数$Y$の確率関数$p_y(y)$を考えると、

$$ \begin{align} p_y(y) & = \sum^{\infty}_{x=0}\frac{\lambda_1^x}{x!}e^{-\lambda_1}\frac{\lambda_2^{y-x}}{(y-x)!}e^{-\lambda_2} = e^{-(\lambda_1+\lambda_2)} \frac{1}{y!} \sum^{\infty}_{x=0}{}_yC_x\lambda_1^x\lambda_2^{y-x} \\ & = \frac{e^{-(\lambda_1+\lambda_2)}}{y!} (\lambda_1+\lambda_2)^y\ (二項定理を用いた)& \\ \end{align} $$

これは、確かにパラメータ$\lambda_1 +\lambda_2 $のポアソン分布に従っている。

[4]

題意より、

$$ Z = \frac{X-E[X]}{\sqrt{V[X]}} = \frac{X-\lambda}{\sqrt{\lambda}} $$

積率母関数と確率密度関数との一意性対応(一対一対応)を用いた導出を試みる。

$$ \begin{align} M_Z(t) & = E[e^{tZ}]=E[e^{t(\frac{X}{\sqrt{\lambda}}-\sqrt{\lambda})}] = e^{-\sqrt{\lambda}t} E[e^{\frac{t}{\sqrt{\lambda}}X}] = e^{-\sqrt{\lambda}t}M_X(\frac{t}{\sqrt{\lambda}}) & \\ & = e^{-\sqrt{\lambda}t}\exp\left[ \lambda(e^{\frac{t}{\sqrt{\lambda}}}-1) \right] & \\ \leftrightarrow \log M_Z(t) & = -\sqrt{\lambda}t + \lambda(e^{\frac{t}{\sqrt{\lambda}}}-1)&\\ & = -\sqrt{\lambda}t -\lambda + \lambda(e^{\frac{t}{\sqrt{\lambda}}}) & \\ \end{align} $$

ここで、$h(x) = e^{\frac{t}{\sqrt{\lambda}}x}$1としたとき、テイラー展開すると、

$$ \begin{align} h(x) & = h(0) + \frac{h'(0)}{1!}(x-0) + \frac{h''(0)}{2!}(x-0)^2 + \sum^{\infty}_{k=3}\frac{h^{(k)}(0)}{k!}(x-0)^k & \\ & = 1 + \frac{t}{\sqrt{\lambda}}x + (\frac{t}{\sqrt{\lambda}})^2\frac{1}{2}x^2+ \sum^{\infty}_{k=3}\frac{(\frac{t}{\sqrt{\lambda}})^k}{k!}x^k\\ \leftrightarrow h(1) = e^{\frac{t}{\sqrt{\lambda}}} = 1 + \frac{t}{\sqrt{\lambda}} + \frac{1}{2}(\frac{t}{\sqrt{\lambda}})^2 + o(\frac{1}{\lambda^{\frac{3}{2}}}) \end{align} $$

これを代入すると、 $$ \begin{align} \log M_Z(t) & = -\sqrt{\lambda}t -\lambda + \lambda(e^{\frac{t}{\sqrt{\lambda}}})& \\ & = -\sqrt{\lambda}t -\lambda + \lambda(1 + \frac{t}{\sqrt{\lambda}} + \frac{1}{2}(\frac{t}{\sqrt{\lambda}})^2 + o(\frac{1}{\lambda^{\frac{3}{2}}})) & \\ & = \frac{1}{2}t^2 + o(\frac{1}{\sqrt{\lambda}}) \rightarrow \frac{1}{2}t^2 \ (\lambda \rightarrow \infty)& \\ \end{align} $$

すなわち、

$$ M_Z(t) \rightarrow e^{\frac{t^2}{2}} $$

ここで標準正規分布の積率母関数は、

$$ M_X(t) = E[e^{tX}] = \int^{\infty}_{-\infty}e^{tx}e^{-\frac{x^2}{2}}dx = e^{\frac{t^2}{2}}\int^{\infty}_{-\infty}e^{\frac{(x-t)^2}{2}}dx = e^{\frac{t^2}{2}} $$

であるので、$Z$は標準正規分布に収束する。

問4

[1]

$X$, $Y$は標準正規分布に従い、正規分布の線形和は正規分布に従うことから、$Z = a + kX + Y$も正規分布となる。

その期待値と分散を求める。

$$ \begin{align} E[Z] & = a + kE[X] + E[Y] = a & \\ V[Z] & = 0 + k^2V[X] + V[Y] = k^2 + 1& \\ \end{align} $$

よって$Z$は正規分布$N(a, k^2+1)$に従う。

[2]

$X$, $Z$の共分散は、

$$ \begin{align} Cov(X,Z) & = E[XZ]-E[X]E[Z] = E[X(a+kX+Y)] & \\ & = kE[X^2] + E[XY] = kV[X] = k& \\ \end{align} $$

よって、相関係数は、

$$ R[X,Z] = \frac{Cov(X,Z)}{\sqrt{V[X]}\sqrt{V[Z]}} = \frac{k}{\sqrt{k^2+1}} $$

[3]

$X=x$をあたえたとき$Z=a+kx+Y$であるので、

$$ \begin{align} E[Z] & = a+kx &\\ V[Z] & = 1& \\ \end{align} $$

よって、$N(a+kx,1)$の正規分布に従う。

別解として条件付き確率関数の下記の定義に基づいて示す。

$$ f_{Z|X}(z|x) = P(Z=z | X=x) = \frac{f_{X,Z}(x,z)}{f_X(x)} $$

$X$, $Z$から$X = X$, $Y = Z - (a + kX)$への変数変換を考えると、ヤコビアンは、

$$ J((x,z)\rightarrow(x,y)) = \left| \begin{array}{cc} \frac{\partial X}{\partial X} & \frac{\partial X}{\partial Z}\\ \frac{\partial Y}{\partial X} & \frac{\partial Y}{\partial Z} \\ \end{array}\right| = 1 $$

であるので、

$$ \begin{align} f_{X,Z}(x, z) & = f_X(x) f_Y(z-(a+kx)) & \\ & = \frac{1}{\sqrt{2\pi} }\exp \left(-\frac{x^2}{2} \right)\frac{1}{\sqrt{2\pi}}\exp \left(-\frac{(z-(a+kx))^2}{2} \right)& \\ \end{align} $$

また、

$$ f_X(x) = \frac{1}{\sqrt{2\pi}}\exp \left( -\frac{x^2}{2}\right)\\ $$

以上により、

$$ f_{Z|X}(z|x) = \frac{1}{\sqrt{2\pi}}\exp \left(-\frac{(z-(a+kx))^2}{2} \right) $$

これは$N(a+kx, 1)$の正規分布の確率密度関数である。

[4]

$$ f_{X|Z}(x|z) = \frac{f_{Z|X}(z|x)f_X(x)}{f_Z(z)} $$

$[3]$より、

$$ \begin{align} f_{Z|X}(z|x)f_X(x) & = \frac{1}{\sqrt{2\pi}}\exp \left(-\frac{(z-(a+kx))^2}{2} \right)\frac{1}{\sqrt{2\pi} }\exp \left(-\frac{x^2}{2} \right) & \\ & = \frac{1}{2\pi}\exp \left( -\frac{(1+k^2)x^2-2k(z-a)x+(z-a)^2}{2}\right)& \\ & = \frac{1}{2\pi}\exp\left(-\frac{1+k^2}{2} \left\{x-\frac{k}{k^2+1}(z-a) \right\}^2 \right) \exp\left( -\frac{(z-a)^2}{2(k^2+1} \right)& \\ \end{align} $$

また、$Z$の周辺確率密度関数は、$[1]$より、

$$ f_Z(z) = \frac{1}{\sqrt{2\pi(k^2+1)}}\exp \left( - \frac{(z-a)^2}{2(k^2+1)}\right) $$

以上より、

$$ f(x|z) = \frac{1}{\sqrt{2\pi}\frac{1}{\sqrt{k^2+1}}}\exp\left( -\frac{1}{2\frac{1}{k^2+1}} \left\{x-\frac{k}{k^2+1}(z-a) \right\}^2 \right) $$

これは、$N(\frac{k}{k^2+1}(z-a), \frac{1}{k^2+1})$の確率分布の確率密度関数であり、$X$はこの確率分布に従う。

問5

[1]

題意より、$V=Z^2$であり、$Z$は$N(0,1)$の標準正規分布に従い、確率密度関数$\phi(z)=\frac{1}{\sqrt{2\pi}}\exp\left(-\frac{z^2}{2}\right)$であるので、$Z\rightarrow V$の変数変換を考える。

$dv = 2\sqrt{v} dz$より、Vの確率分布関数は、

$$ \begin{align} F_V(v) = P(V\leq v) & = P(Z^2\leq v) = P_Z(-\sqrt{v} \leq Z \leq \sqrt{v}) &\\ & = 2 \int^{\sqrt{v}}_{0}\frac{1}{\sqrt{2\pi}}\exp\left(-\frac{z^2}{2}\right) dz\ (z=0で確率密度関数が左右対称であることを用いた) &\\ & = \int^{\sqrt{v}}_{0}\frac{1}{\sqrt{2\pi v}}\exp\left({-\frac{v}{2}}\right) dv & \\ \end{align} $$

以上より、$V=Z^2$の確率密度関数は、

$$ f_V(v) = \frac{d F_V(v)}{dv} = \frac{1}{\sqrt{2\pi v}}\exp\left({-\frac{v}{2}}\right) $$

となることが示された。

[2]

$S=\frac{X}{Y}$であるので、$X=ST$, $Y=T$なる変数変換を考える。

ヤコビアンは、

$$ J((s,t)\rightarrow(x,y)) = \left| \begin{array}{cc} \frac{\partial x}{\partial s} & \frac{\partial x}{\partial t}\\ \frac{\partial y}{\partial s} & \frac{\partial y}{\partial t}\\ \end{array} \right| = t $$

であるので、

$$ \begin{align} f_{S,T}(s,t) & = f_X(st)f_Y(t) t & \\ & = \frac{1}{\sqrt{2\pi st}}e^{-\frac{st}{2}}\frac{1}{\sqrt{2\pi t}}e^{-\frac{t}{2}} t & \\ & = \frac{1}{2\pi\sqrt{ s}} e^{-\frac{t}{2}(1+s)}& \\ \end{align} $$

よってこれの$S$に対する周辺確率密度関数を求めると、

$$ \begin{align} g(s) & = \int^{\infty}_{0} \frac{1}{2\pi\sqrt{s}} e^{-\frac{t}{2}(1+s)} dt & \\ & = \frac{1}{2\pi\sqrt{s}} [\frac{1}{-\frac{1}{2}(1+s)}e^{-\frac{t}{2}(1+s)}]^{\infty}_{0}& \\ & = \frac{1}{\pi\sqrt{s}(1+s)}& \\ \end{align} $$

以上より、$g(s) = \frac{1}{\pi\sqrt{s}(1+s)}$を示すことができた。

[3]

$T = \frac{X-Y}{2\sqrt{XY}}$より、$T = \frac{1}{2}\left(\sqrt{\frac{X}{Y}}-\sqrt{\frac{Y}{X}}\right) = \frac{1}{2}\left(\sqrt{S}-\sqrt{\frac{1}{S}}\right) $である。

$s = tan^2\theta$とすると、$\frac{ds}{d\theta} = 2tan\theta \frac{1}{cos^2\theta}$であり、$\theta$の確率密度関数$f_{\theta}(\theta)$は、$J(\theta \rightarrow s) = \frac{ds}{d\theta}$であるので、

$$ f_{\theta}(\theta) = g(s) |2tan\theta \frac{1}{cos^2\theta}| = \frac{1}{\pi tan\theta(1+tan^2\theta)}2tan\theta \frac{1}{cos^2\theta} = \frac{2}{\pi} $$

$t = \frac{1}{2}\left(\sqrt{S}-\sqrt{\frac{1}{S}}\right) $に$s=tan^2\theta$を代入して、

$$ t = \frac{1}{2}(tan\theta - \frac{1}{tan\theta}) = \frac{1}{2}(\frac{sin\theta}{cos\theta}-\frac{cos\theta}{sin\theta}) = \frac{1}{2}(\frac{-cos 2\theta}{sin\theta cos\theta}) = -\frac{cos 2\theta}{sin 2\theta} $$

また、

$$ \frac{dt}{d\theta} = \frac{1}{sin^2 2\theta} $$

ここで

$$ t = - \frac{1}{tan2\theta}\leftrightarrow \frac{1}{t^2} = tan^2 2\theta \leftrightarrow \frac{1+t^2}{t^2} = \frac{1}{cos^2 2\theta} \\ \leftrightarrow \frac{t^2}{1+t^2} = 1- sin^2 2\theta \leftrightarrow \frac{1}{sin^2 2\theta} = 1+t^2 $$

以上より、

$$ f_T(t) = f_\theta(\theta(t)) \left| \frac{dt}{d\theta} \right| = \frac{2}{\pi}\frac{1}{1+t^2} $$