DEVELOPER’s BLOG

技術ブログ

統計検定 数理 2019 問3 解答

2019.11.28 小池 壮
統計学
統計検定 数理 2019 問3 解答

問2に続いて問3です。
同じくご指摘があればコメントをお願いします。


また、問1問2はこちらをご確認ください。
合格記も書きました。


[1]
\(X_1, X_2, \cdots , X_n\)の同時確率密度関数
\[ f(x_1, x_2, \cdots, x_n) = \begin{cases} \frac{1}{\theta ^n} & (x_1, x_2, \cdots , x_n \leq \theta)\\ 0 & (otherwise) \end{cases} \] の条件\((x_1, x_2, \cdots , x_n \leq \theta)\)は\(y \leq \theta\)と同値であるので、 フィッシャーネイマンの分解定理により、\(Y\)は\(\theta\)に関する十分統計量である.

[2]
区間\((0,\theta)\)上の一様分布に従う確率変数\(X\)の累積分布関数\(F_{X}(x)\)について \[ F_{X}(x) = P(X\leq x) = \begin{cases} \cfrac{x}{\theta} & (0\leq x \leq \theta) \\ 0 & (x<0) \\ 1 & (x>\theta) \end{cases} \] となる。よって\(Y\)の累積分布関数\(G(y)\)は \begin{eqnarray*} G(y) &=& P(X_{1}, X_{2}, \cdots, X_{n}\leq y) \\ &=& P(X_{1}\leq y)P(X_{2}\leq y)\cdots P(X_{n}\leq y) \\ &=& \left(\frac{y}{\theta}\right)^{n} \end{eqnarray*} これを\(y\)について微分することで \[ g(y) = \frac{n}{\theta^{n}}y^{n-1} \]

[3]
\(Y=max(X_1, X_2, \cdots , X_n)\)であったから、\(X_1, X_2, \cdots , X_n\)のうち最大の値をとる確率変数を、例えば\(Y=X_n\)とすれば、 \(Y=y\)つまり\(X_n=y\)が与えられたとき、
\[ f(x_1, \cdots , x_{n-1}, y | y) = \frac{1}{y^{n-1}} \] となる。

[4]
\begin{eqnarray*} E[Y] &=& \int^{\theta}_{0}y\frac{n}{\theta^{n}}y^{n-1} dy \\ &=& \frac{n}{\theta^{n}} \cdot \frac{\theta^{n+1}}{n+1} \\ &=& \frac{n}{n+1}\theta \end{eqnarray*} これより、\(\tilde{\theta}=\cfrac{n+1}{n}Y\)とすると\(E[\tilde{\theta}]=\theta\)となり不偏性をもつ。したがって、求めるパラメータ\(\theta\)の不偏推定量は\(\tilde{\theta}=\cfrac{n+1}{n}Y\)

[5]
関数\(u(Y)\)の期待値が0となるとき、 \begin{eqnarray*} E[u(Y)] &=& \int^{\theta}_{0}u(y)\frac{n}{\theta^{n}}y^{n-1}dy = 0 \\ &\Rightarrow& \int^{\theta}_{0}u(y)y^{n-1}dy = 0 \end{eqnarray*} どのような\(\theta\)についても等式が成り立つためには\(u(Y)\equiv0\)でなければならない。

[6]
\(Y\)の関数であるパラメータ\(\theta\)の不偏推定量を\(s(Y)\)とし、\(E[s(Y)-\tilde{\theta}]\)を計算すると、\(E[s(Y)-\tilde{\theta}]=0\)となり、[5]の結果から\(s(Y)-\tilde{\theta}=0\)で、どのような\(s(Y)\)に対しても\(s(Y)=\tilde{\theta}\)となる。つまり\(\tilde{\theta}\)は\(Y\)の関数であるパラメータ\(\theta\)の唯一の不偏推定量である。

解答は以上です。指摘事項があればお手数ですがご連絡ください。

関連記事

ベイジアンネットワーク入門

最近扱われるデータ量は膨大です。それに伴いデータの見方を変え、かつては重要度が低かった点からも関係性を見出す必要があります。 そのために確率推論は多くの命題の生起する可能性を確率として記述することから始められ、条件付き確率と結合確率を1つずつ繋ぎ合わせ段階的に構成されています。 ベイジアンネットワーク(Bayesian network) 人工知能(AI)における確率推論の一つのモデルです。 イギリスの確率論研究家トーマス・ベイズが発案したベイズの定理に基づ

記事詳細
ベイジアンネットワーク入門
統計学
統計検定1級 合格記

2019年11月24日に行われた統計検定1級で、統計数理と統計応用(理工学)の両分野で合格をいただけました。このブログには僕がその合格までに行ったこととその振り返りを書き連ねておこうと思います。 もくじ 統計検定1級を受けようと思った理由 申し込む前の学習状況 申し込み 本番までに行った学習 試験本番 試験までを振り返って 統計検定1級を受けようと思った理由 僕がこの統計検定1級を受けようと思った理由は僕の興味対象となる研究分野が確

記事詳細
統計検定1級 合格記
統計学
文系のための統計学の勉強方法

今回は初めて統計学を勉強しよう、統計検定を受けようという 文系の大学生 文系出身のビジネスマン このような方に向けて、勉強方法やおすすめの本について紹介していきます。 今回紹介する本の内容をマスターすると、統計検定2級の合格や機械学習の本を理解できるようになります。 目次 自己紹介 なぜ統計学の勉強が大変なのか 本の紹介 自己紹介 僕は現在、大学3年生で文系の学部に所属しています。 統計学を勉強したきっかけは以下の2つです。 データを分析するのに必要なた

記事詳細
文系のための統計学の勉強方法
統計学
自然言語処理( NLP )とは  -統計的手法を用いて-

※本記事の対象:自然言語処理という言葉は聞いたことはあるが、どういうアプローチで処理がされているかイメージが湧かない方(大学レベルの数学の知識は必要) ※内容はオーム社『ゼロから学ぶDeep Learning2』を参考にしている 目次 1. はじめに:自然言語処理(NLP)とは 2. シソーラスによる手法 3. カウントベースの手法( 統計的手法 ) 4. カウントベースの手法の改善点 5. 【次回】word2vec( ←これがメイン ) 6. まとめ

記事詳細
自然言語処理( NLP )とは -統計的手法を用いて-
統計学 自然言語処理

お問い合わせはこちらから