統計学の学習を始めると、私たちはいくつかの不思議な、そして少し納得のしがたい規則に出会います。例えば、「データのばらつきを示す分散を計算するときは、データの数であるnで割るのではなく、そこから1を引いたn-1という数で割りなさい」という指示や、「p値という指標が0.05より小さければ、立てた仮説を棄却しなさい」といった判断基準がそれに当たります 1。これらはしばしば、理由の説明なく「そういう決まりだから」と片付けられてしまいがちですが、実はこれらの規則の背後には、統計学という学問の根幹をなす、深く一貫した世界観が存在します。
私たちの周りの世界は、数えきれないほどのデータで満ち溢れています。例えば、ある国の成人全員の平均身長や、ある工場で生産される製品すべての平均寿命といったものを考えてみましょう。これらは統計学の世界で「母数」と呼ばれ、私たちが本当に知りたい対象であることが多くあります。この母平均や母分散といった「真の値」は、理論上はただ一つだけ存在しているはずです。しかし、私たちはその値を直接知ることは決してできません。なぜなら、その国の成人全員の身長を測ったり、未来永劫にわたり生産される全ての製品を調べ尽くしたりすることは、現実的に不可能だからです 2。
私たちにできるのは、母集団全体からその一部を注意深くすくい取ることだけです。このすくい取られた一部のデータを「標本」と呼びます。私たちは、この限られた標本から、その背後にある母集団を推測しようと試みるわけです。ここには、常に一つの根本的な疑問が横たわっています。それは、「この不完全で限られた情報しか持たない私たちが、決して直接は見ることのできない『真の値』について、どのようにすれば信頼に足る判断を下すことができるのか」という問いです。
この記事は、この根源的な問いに答えようとする一つの知的体系、すなわち「頻度論」という統計学の立場を解き明かすことを目的とします。頻度論がどのようにして「見えざる真の値」という難問に立ち向かうのか、そしてその格闘の末に生み出された技法が、なぜ仮説検定という手続きや、分散をn-1で割るという一見奇妙な計算につながっていくのかを、順を追って丁寧に解説していきます。
Table of Contents
頻度論 ― 繰り返しという思想
私たちが「真の値は存在するが、直接知ることはできない」という厳しい現実に直面したとき、どのような戦略を取ればよいのでしょうか。ここで登場するのが「頻度論」という、統計学における一つの考え方です。頻度論は、この難問に対して独創的な視点を持ち込むことで、道を切り拓きました。それは、「もし同じことを無限に繰り返したら、何が起こるだろうか」と考えることです 3。
頻度論の立場では、「確率」という言葉の意味が非常に重要になります。例えば、一枚のコインを投げて表が出る確率が2分の1であるとは、どういう意味でしょうか。頻度論では、これは一回きりのコイン投げの結果を予言するものではないと考えます。そうではなく、もしこのコインを何百万回、何億回と、果てしなく投げ続けたならば、表が出た回数と投げた回数の比率が、最終的に2分の1という値に限りなく近づいていく、という性質を指しているのです 5。つまり、確率は「長期間における相対的な頻度」として定義されます。
この考え方を、母集団と標本の関係に応用してみましょう。頻度論では、私たちが知りたい母平均などの「真の値」は、未知ではあるものの、時間や状況によって変動しない一つの固定された定数だと考えます 3。一方で、私たちが手にする「標本」は、数ある可能性の中から偶然選ばれた、いわば確率的な産物です。今日調査して得られた100人のデータは、明日同じように調査すれば、きっと少し違う100人のデータになるでしょう。つまり、真の値は固定されており、私たちの手元にあるデータの方がランダムに変動するものだと捉えるのです。
この世界観に立つと、頻度論の考え方が見えてきます。私たちは一度の調査で得られた標本だけを見て、真の値が「これだ」と断定することはしません。その代わりに、自分たちの調査や計算の「やり方」そのものに注目します。そして、「もしこの調査と計算の手順を、全く同じ条件で何度も何度も、それこそ無限に繰り返したとしたら、得られる結果の『平均的な振る舞い』はどうなるだろうか」と考えるわけですね。この思考実験こそが、頻度論の神髄です。一度きりの結果に一喜一憂するのではなく、その結果を生み出した「手順」の長期的な性能を評価することで、客観的で信頼できる知識を得ようとします 6。
この頻度論の立場は、統計学におけるもう一つの大きな潮流である「ベイズ統計学」との対比で、より鮮明になります。両者の最も根本的な違いは、「不確実性」をどこに見出すかにあります。頻度論では、真の値は固定されており、どの標本が抽出されるかという「データ側」に不確実性があると考えます。問いは「この固定された真実を前提としたとき、どのようなデータが得られる可能性があるか」です 3。
対照的に、ベイズ統計学では、一度観測されたデータは揺るぎない事実として固定されていると考えます。そして、私たちが知らない「真の値」の方に不確実性がある、つまり確率的に変動するものとして扱うのです 8。ベイズ統計学における問いは、「この得られたデータを前提としたとき、真の値はどのような範囲にありそうだと『信じる』のが合理的か」となります 9。
このように、頻度論は不確実性を「サンプリングの偶然性」に閉じ込め、ベイズ統計学は「私たちの知識の不完全さ」に閉じ込めます。この哲学的な分岐点が、なぜ両者が異なる道具、異なる結論の表現を用いるのかを決定づけているのです。そして、仮説検定やn-1による補正といった技法は、まさにこの頻度論を通して世界を観察するために設計された道具という位置づけになります。
影を見て本体を判断する ― 仮説検定の論理
頻度論が提唱する「同じ手順を繰り返したらどうなるか」という視点は、私たちが手元のデータから何らかの判断を下すための、具体的な方法へと繋がります。その代表例が「仮説検定」です。これは、真の値がわからないという制約の中で、偶然と必然を見極め、合理的な意思決定を行うために編み出された、頻度論の精神を反映した論理の枠組みです 11。
仮説検定の構造は、法廷での裁判や、数学の証明法である背理法によく似ています。まず、私たちは検証したい事柄について、二つの対立する仮説を立てます 13。一つは「帰無仮説」と呼ばれ、これは「特に何も面白いことは起きていない」「差はない」「効果はない」といった、いわば現状維持の立場や懐疑的な立場を表す仮説です。例えば、新しい薬の効果を試したいのであれば、「この薬には効果がない」というのが帰無仮説になります 11。
もう一つは「対立仮説」と呼ばれ、こちらが研究者や分析者が本当に主張したい内容、つまり「差がある」「効果がある」という仮説です。先の例で言えば、「この薬には効果がある」というのが対立仮説となります 11。
仮説検定の巧妙な点は、対立仮説が正しいことを直接証明しようとするのではない、というところにあります。そうではなく、まず「もし帰無仮説が正しいとしたら」と、一旦は懐疑的な立場を仮定してみるのです。そして、その仮定の上で、私たちが実際に手にしたデータがどのくらい「珍しい」出来事なのかを評価します。
この「珍しさ」の度合いを客観的に示す指標が「p値」です。p値とは、「もし帰無仮説(例:薬に効果がない)が本当に正しい世界であったならば、今回観測されたデータと少なくとも同じくらい、あるいはそれ以上に極端なデータが得られる確率はどれくらいか」を計算したものです 13。もしp値が非常に小さければ、それは「帰無仮説が正しいと考えると、こんなデータが出てくるのは滅多にない、非常に驚くべきことだ」ということを意味します。
では、どのくらいp値が小さければ「驚くべき」と判断するのでしょうか。その基準となるのが「有意水準」です。これは通常、実験や調査を始める前にあらかじめ決めておく判断のラインであり、一般的には5パーセント(0.05)や1パーセント(0.01)という値が用いられます 11。これは、私たちが「確率5パーセント未満でしか起こらないような珍しい現象が起きたのなら、それはもはや偶然とは考えにくい。最初の仮定(帰無仮説)の方が間違っていたのではないか」と判断するための、事前の約束事です。
そして最終的な判断が下されます。計算されたp値が、事前に定めた有意水準よりも小さかった場合、私たちは「これほど珍しいことが起きたのだから、最初の仮定は誤りだったのだろう」と結論し、「帰無仮説を棄却する」という決定を下します 15。帰無仮説が棄却された結果、消去法的に、もう一方の対立仮説、つまり私たちが主張したかった「薬には効果がある」という説が採択されることになるんですね。
ここで重要なのは、仮説検定が提供する証拠の非対称性です。この手続きは、帰無仮説が間違っていることを積極的に示す(偽であると反証する)ことには長けていますが、帰無仮説が正しいことを証明する力は持ち合わせていません。なぜなら、p値の計算そのものが「帰無仮説が正しい」という仮定の下で行われているからです 13。したがって、p値が小さければ、その仮定に対する強力な反証となります。
しかし、p値が大きかった場合はどうでしょうか。これは単に「観測されたデータは、帰無仮説が正しいとしても特に珍しくはない」ということを意味するだけであり、「帰無仮説が正しいことの証明」にはなりません。あくまで、「帰無仮説を棄却するための十分な証拠が見つからなかった」という状態に過ぎないのです。この事実は、p値が対立仮説ではなく、帰無仮説に関する情報しか提供しない、という指摘とも一致します 17。この慎重で保守的な構えこそが、客観性を重んじる頻度論の哲学の表れであり、同時に、p値がしばしば誤解され、科学研究における論争の種となってきた理由でもあります 2。
なぜ標本のばらつきは常に小さく見えるのか
頻度論のもう一つの重要な関心事である「分散」、つまりデータのばらつきの大きさを測るという問題に目を向けてみましょう。ここで、あの「n-1で割る」という奇妙な規則の謎を解くための、第一歩を踏み出します。この規則の根本には、私たちが標本から計算するばらつきが、実は母集団の真のばらつきよりも、構造的に小さく見積もられてしまうという、避けることのできない性質が存在します。
まず、ばらつき、すなわち分散とは何かを直感的に捉えてみましょう。これは、データセットに含まれる一つ一つの値が、そのデータセットの中心から平均してどれくらい離れているかを示す指標です。値が中心の周りに密集していれば分散は小さく、広範囲に散らばっていれば分散は大きくなります。
問題は、この「中心」をどこに置くかです。母集団全体の真のばらつき(母分散)を考えるとき、その中心は当然、母集団全体の真の平均(母平均)です。母分散とは、母集団に属する全ての人や物が、この動かざる中心点である母平均から、平均してどれだけ離れているかの二乗で測ったものです。
しかし、私たちは母平均という真の中心点を知りません。私たちが手にしているのは標本だけであり、計算できるのはその標本の中での平均、すなわち「標本平均」だけです。そして、私たちはこの標本平均を「仮の中心」として使い、標本データのばらつきを計算せざるを得ません。
ここに、系統的な歪みが生じる原因があります。数学的な事実として、ある点の集まりからの距離の二乗和を計算するとき、その合計値は、その点の集まり自身の平均値を中心とした場合に、最小になるという性質があります。つまり、標本平均という値は、他のどんな値を基準にするよりも、その標本データたちからの距離の二乗和を最も小さくする、いわばその標本にとって「完璧な」中心点なのです。
このことは、私たちが標本平均を基準にばらつきを計算すると、その値が、もし知ることのできた真の母平均を基準に計算した場合よりも、必ず小さくなるか、よくても同じ値にしかならないことを意味します 18。標本から計算されたばらつきは、いわば「内輪びいき」によって、実際よりも小さく見えてしまうのです。これは、たまたまそういう標本を引いてしまったという偶然の誤差ではありません。どのような標本を抽出しようとも、常にばらつきを過小評価する方向に働く、構造的な偏り、すなわち「バイアス」なのです 20。
この現象は、別の角度から見るとさらに深く理解できます。それは、私たちがばらつきの計算に使う基準点である標本平均が、独立した外部の基準ではなく、ばらつきを測ろうとしているまさにそのデータ自身から生み出されているという事実です。真の母平均は、私たちがどんな標本を取ろうとも動かない、不動の灯台のようなものです。それに対して標本平均は、私たちが偶然すくい上げたデータの方へと、ふらふらと引き寄せられてしまいます。
例えば、たまたま身長が高い人ばかりの標本を抽出したとしましょう。すると、標本平均もまた高い値となり、彼らの中心へと移動します。逆に低い人ばかりの標本なら、標本平均も低い値になります。いかなる場合でも、標本平均はデータに「追従」し、その標本内部での見かけのばらつきが最小になるような位置に、自らを配置してしまうのです。
これは、私たちがデータを一度、平均を計算するために使ってしまった時点で、そのデータが持っていた情報の一部を消費してしまった、と考えることもできます。データはもはや、母集団の真の中心に対してどれだけばらついているかを表現する上で、「完全に自由」ではなくなってしまったのです。この「失われた自由」という考え方が、次の章で解説する「n-1」という数字の真の意味を理解する鍵となります。
歪みを正す ― n-1で割ることに込められた意味
私たちが標本から素朴に計算した分散は、母集団の真の分散を系統的に過小評価してしまうという、歪んだ鏡のような性質を持っています。頻度論の立場に立つ統計学者たちは、この歪みを正さないわけにはいきません。なぜなら、彼らの目標は、何度も実験を繰り返したときに、平均的には真の値にたどり着けるような、信頼性の高い「手順」を確立することだからです。そこで考案されたのが、この歪みを補正するための、実にエレガントな解決策、すなわち「n-1で割る」というプロセスです。
偏差の二乗和を、データの総数であるnで割る代わりに、それよりわずかに小さいn-1という数で割ると、計算結果はどうなるでしょうか。当然、分母が小さくなるため、商は少しだけ大きな値になります。このわずかな「水増し」こそが、標本平均を使うことで生じていた過小評価のバイアスを、長期的に見て平均的に打ち消すための補正、というわけです 18。
この補正によって得られる分散は、特別な名前で呼ばれます。それは「不偏分散」です。ここでの「不偏」とは、「偏りがない」という意味であり、統計学の世界では非常に重要な概念です。ある推定方法が「不偏」であるとは、その方法を用いて何度も何度も標本抽出と計算を繰り返したときに、得られる推定値の平均が、私たちが知りたいと願っている母集団の真の値に、寸分違わず一致することを意味します 23。n-1で割るという操作は、標本から分散を推定するための方法を、この「不偏性」という望ましい性質を持つように調整するための、数学的な必然なのです 25。
このn-1という数字の背景には、より直感的な説明も存在します。それが「自由度」という考え方です。自由度とは、その名の通り、データの中で「自由に値を変えることができるものの数」を指します。
例えば、ここにn個のデータがあるとします。もし、これらのデータについて何の情報もなければ、n個すべてが自由に値をとり得ます。しかし、私たちがこれらのデータの「平均値」を計算してしまった後では、状況は一変します。n個のデータのうち、最初のn-1個までは好きな値を選ぶことができます。ところが、最後の1個のデータは、全体の平均が計算済みの特定の値になるように、自動的に値が決定されてしまいます。もはや、それは自由に動くことができないのです 26。
つまり、ばらつきの計算の土台となる偏差(各データと平均値の差)を考えたとき、そこに含まれる独立した、あるいは「自由な」情報の量は、データの個数nそのものではなく、n-1個分しかない、ということになります 1。だとすれば、ばらつきの「平均」を計算する際に、情報の総量である偏差の二乗和を、見かけのデータ数nで割るのではなく、情報の真の数である自由度n-1で割る方が、より実態に即している、と考えるのは自然なことでしょう。
このように見てくると、n-1で割るという行為は、単なる計算上のテクニックではなく、頻度論の哲学そのものを体現した、一つの宣言であることがわかります。この行為の裏には、「この世界には客観的で唯一の真の値が存在する」という強い信念があります。そして、その信念があるからこそ、「私たちの推定方法は、長期的にはその真の値を指し示すべきだ」という不偏性の追求が意味を持ち、その結果としてn-1による補正が必要となるわけです 1。
もし、真の値が一つに定まっていると考えないのであれば、そもそも「不偏性」という概念自体が意味をなさなくなります。したがって、このn-1という数字は、頻度論という思想の根幹にある世界観と、そこから導かれる論理的帰結が凝縮された、象徴的な存在なのです。それは、私たちの持つデータが不完全であることを認め、その上で真実へと迫ろうとする、科学的な姿勢とも言えるでしょう。
頻度論とベイズ統計 ― 異なる思想、異なる論理
ここまで、頻度論という立場から、なぜ分散の計算にn-1という補正が必要になるのかを詳しく見てきました。それは、私たちが手にする標本という不完全な情報から、母集団という見えざる真実をできるだけ正確に「推定」しようとする営みでした。しかし、統計学の応用範囲は広く、目的が変われば、使うべき道具や従うべき規則も変わってきます。ここでは、どのような場合に「nで割る」という、より素朴な計算が許容され、あるいは推奨されるのかを探ることで、n-1の持つ意味を見つめ直してみましょう。
その最も代表的な例が、統計学のもう一つの大きな潮流である「ベイズ統計学」の文脈です。ベイズ統計学の世界では、一般的にn-1による補正は行われません。その理由は、これまでの議論で触れてきたように、根底にある哲学が全く異なるからです。ベイズ統計学では、母平均や母分散といったパラメータを、頻度論のように「未知の固定値」とは見なしません。そうではなく、パラメータ自身が確率的に変動する「確率変数」であると考えます 8。
ベイズ統計学の目的は、データを得る前のパラメータに関する主観的な信念(事前分布)を、観測されたデータという証拠を用いて、より精緻な信念(事後分布)へと更新することにあります 9。彼らの最終的な成果物は、パラメータが特定の値である確率を示す「分布」そのものです。したがって、何度も繰り返した場合に平均的に真の値と一致するような、単一の点としての推定値(不偏推定量)を求める、という頻度論的な目標設定自体が、彼らの関心の中心にはないのです 1。目的が違えば、n-1で補正するという行為の必要性も自ずと失われるわけです。
もう一つの重要な文脈が、機械学習や記述統計学の分野です。これらの分野では、母集団のパラメータを正確に推定するという「推測」の側面よりも、手元にあるデータそのものの特徴を把握したり、そのデータから将来を「予測」したりすることが、主たる目的となる場合が少なくありません。
例えば、手元にある100個のデータのばらつきを、純粋にその100個のデータセットの性質として記述したいだけであれば、その偏差二乗和をデータ数である100で割るのが、最も直接的で正しい計算方法です 22。ここには母集団への推測という意図がないため、バイアスを補正する必要もありません。
また、機械学習のモデル構築においては、手元の訓練データを最もよく説明できるようなパラメータを見つけ出すことが重視されます。この文脈では、nで割る分散の計算(これは最尤推定量と呼ばれます)が、モデルの最適化において数学的に扱いやすく、優れた性能を発揮することが知られています。ここでの関心は、架空の母集団の「真の」パラメータを知ることではなく、未知のデータに対して高い予測精度を持つモデルを構築することにあります 1。
さらに、現実的な側面として、標本のサイズnが非常に大きい場合、例えば数万や数百万といった「ビッグデータ」を扱う際には、nで割るかn-1で割るかの違いは、結果にほとんど影響を与えなくなります。両者の差は実質的に無視できるほど小さくなるため、どちらを用いるかは重要でなくなります 22。
これらの例が示しているのは、nとn-1のどちらが絶対的に「正しい」かという問題ではなく、分析の「目的」がどの道具を選択すべきかを決定する、という重要な事実です。母集団の真の姿を推測するという古典的な統計的「推論」を目的とするならば、頻度論の哲学に基づいたn-1による補正が不可欠です 2。一方で、手元のデータを「記述」したり、未来を「予測」したりすることが目的ならば、nで割る計算の方が合理的である場面も多いのです。統計学の規則とは、普遍的な自然法則ではなく、特定の目的を達成するために磨き上げられた、論理的な道具一式なのです。このことを理解すれば、私たちは統計学を硬直したルールの集合としてではなく、目的に応じて使い分けることのできる、柔軟で強力な思考のツールキットとして捉え直すことができるでしょう。
まとめ
なぜ仮説を立ててp値で判断するのか、そして、なぜ分散の計算でn-1という数を用いるのか。これらは一見すると、無関係で恣意的な命令のように感じられたかもしれません。しかし、その背後にある「頻度論」という一つの壮大な世界観をたどることで、これらの規則が、実は深く結びついた、一貫性のある論理の帰結であることが明らかになりました。
すべては、「この世界には唯一の真実(真の値)が存在するが、私たちはそれを決して直接知ることはできない」という、根源的な認識から出発します。この謙虚な前提に立ったとき、頻度論は「一度きりの観測で真実を語ることはできないが、もし同じ手続きを無限に繰り返したならば、その手続きの長期的な性能を評価することはできる」という、独創的な活路を見出しました。
この「繰り返し」という思想が、仮説検定の論理を生み出しました。それは、「もし効果がないという仮説が正しいならば、これほど極端なデータが得られるのは非常に稀である。ゆえに、元の仮説は誤りだろう」と判断する、慎重かつ客観的な意思決定の枠組みです。
同様に、この思想は分散の計算方法にも深い影響を与えました。私たちが限られた標本から計算するばらつきは、その標本自身の平均を基準とするために、どうしても真のばらつきよりも小さく見えてしまうという系統的な歪みを持ちます。この歪みを、長期的な視点から平均的に補正し、私たちの推定方法が真実から偏らないようにするために、「n-1で割る」という操作、すなわち不偏分散という誠実な道具が発明されたのです。
つまり、仮説検定もn-1による補正も、どちらも「見えざる真の値」という存在を強く信じ、その上で、限られたデータからいかにしてその姿に迫るかという、頻度論の哲学が生み出した必然的な技法なのです。
最後に、改めて「n-1」という数式に込められた意味を考えてみたいと思います。この「-1」は、単なる数学的な調整項ではありません。それは、私たちが完全な知識からは一つだけ自由度が足りない、不完全な存在であることの象徴です。それは、私たちが常に標本という名の不完全な鏡を通してしか世界を覗けないことを、計算のたびに思い出させてくれる、知的な謙虚さの証なのです。この小さな数字には、自分たちの限界を認め、それでもなお客観的な真実へと一歩でも近づこうとする、科学の探求における美しく、そして厳格な精神が凝縮されていると言えるでしょう。
引用文献
- なぜ仮説検定を行うのか、なぜ分散の計算でn-1で割るのか - 真の値 ..., https://note.com/cograph_data/n/n5b916d8fd6d1
- 頻度主義統計学を「完全に理解」しよう - Speaker Deck, https://speakerdeck.com/ueniki/pin-du-zhu-yi-tong-ji-xue-wo-wan-quan-nili-jie-siyou
- ベイズ統計学対頻度統計学:大した違いはない? - Statsig, ベイズ統計学対頻度統計学:大した違いはない?
- 「仮説検定の考え方」の指導について 数学科 三 橋 一 行, https://kyozai-db.fz.ocha.ac.jp/downloadpdfdisp/1599
- ベイズ統計 vs. 古典的統計学:違いと実用例をわかりやすく解説 ..., https://statistical.jp/wn2/
- 頻度主義統計学 - Wikipedia, https://ja.wikipedia.org/wiki/%E9%A0%BB%E5%BA%A6%E4%B8%BB%E7%BE%A9%E7%B5%B1%E8%A8%88%E5%AD%A6
- ベイズ統計とは?普通の統計と何が違う?徹底解説! - Udemy メディア, https://udemy.benesse.co.jp/data-science/data-analysis/bayesian-statistics.html
- ベイズ統計学の考え方〜ベイズ論と頻度論の違い〜 |AVILEN, https://avilen.co.jp/personal/knowledge-article/bayesian-statistics-basic/
- ベイズ統計学入門 〜頻度主義からベイズ主義へ〜 - Speaker Deck, https://speakerdeck.com/ueniki/beizutong-ji-xue-ru-men-pin-du-zhu-yi-karabeizuzhu-yi-he
- ベイズ統計とは?その仕組みやメリット、活用事例をわかりやすく ..., https://www.ai-souken.com/article/bayesian-statistics-overview
- 仮説検定とは?基礎からわかりやすく解説 - DataStreet, https://statistical.jp/hypothesis_testing/
- 正規分布を使わずに『仮説検定』の理論を驚くほどわかりやすく〜 Part1 - GRI, https://gri.jp/media/entry/27286
- 仮説検定とは?計算の手順や用語をわかりやすく解説!|Udemy ..., https://udemy.benesse.co.jp/marketing/hypothesis-testing.html
- 仮説検定とは?初心者にもわかりやすく解説 - AVILEN, https://avilen.co.jp/personal/knowledge-article/hypothesis-testing/
- 仮説検証:仮説検定とは何か、その種類、手順と例 - QuestionPro, 仮説検証:仮説検定とは何か、その種類、手順と例
- 「仮説検定」を世界一わかりやすく解説【高校数学】データの分析・統計的な推測 - YouTube, https://www.youtube.com/watch?v=xg3mAYn83ao
- 頻度主義統計学 vs ベイズ統計学 どちらを使うべき? - Edanz, https://jp.edanz.com/blog/frequentist-bayesian-statistics
- 【なぜn-1で割るの?】不偏分散を分かりやすく解説!母平均・母分散の点推定 - Tech Teacher, https://www.tech-teacher.jp/blog/statistics_8_unbiased_variance/
- 母分散,標本分散,不偏分散 / Hashimoto, Yasuhiro | Observable, https://observablehq.com/@yasuhirohashimoto/unbiased_variance
- 斜めから機械学習!不偏分散は何故、N-1 で割るのか直感的に - Qiita, https://qiita.com/ydclab_P002/items/b3b76905421d5d09c9e4
- 不偏分散ってなに??なぜ標本分散は母集団分散より小さくなるのか【統計学入門⑥】, https://datawokagaku.com/unbiased_variance/
- 【標準偏差はnで割るの?n-1で割るの?】物流における適用例も紹介 | ロジギーク, https://rikei-logistics.com/standard-deviation-n
- 【不偏分散】n-1で割って求める理由は?真の分散を偏りなく推定できるから, https://www.kagakusense.com/unbiased-variance/
- 超わかりやすい!不偏分散がn-1で割る理由!不偏性とは【統計学入門⑦】, https://datawokagaku.com/unbiased_estimator/
- 【永遠の謎を解明】不偏分散の定義にて n-1 で割っている理由【自由度のお話①】#068 #VRアカデミア - YouTube, https://www.youtube.com/watch?v=x4q4Uaihws4
- 不偏分散の謎に迫る(3)〜n-1で割る理由に迫る〜 - 神戸のデータ ..., https://kdl-di.hatenablog.com/entry/2022/11/25/090000
- 3分でわかる!「自由度」の意味(なぜ n-1 なのか) | あぱーブログ, https://blog.apar.jp/data-analysis/5952/
- 自由度 | 統計学の時間 | 統計WEB, https://bellcurve.jp/statistics/course/14989.html
- ベイズ統計と真の値 - セイコンサルティンググループ, https://saycon.co.jp/archives/neta/%E3%83%99%E3%82%A4%E3%82%BA%E7%B5%B1%E8%A8%88%E3%81%A8%E7%9C%9F%E3%81%AE%E5%80%A4
- 分散はnで割るかn-1で割るか, https://okumuralab.org/~okumura/stat/var_or_varp.html
- なぜ不偏標準偏差をn-1で割るのか【導出過程お見せします】 - SiGmA Eye, https://sigma-eye.com/2019/03/05/standard-deviation-n-1/