ビジネス全般 ビッグデータ 統計学

機械学習はそもそも何?統計学とAIをつなぐもの

2025年7月11日

機械学習の正体を知る

回帰分析も機械学習の一つ

「機械学習(マシンラーニング)」という言葉は、現代のテクノロジーを語る上で欠かせないものとなりました。それはどこか未来的で、革新的、そして少しばかり難解な響きを持ち、多くの人々にとって「カッコいいけれど、その実態はよく分からない」存在として認識されているかもしれません。この記事の目的は、その漠然としたイメージの霧を晴らし、「機械学習とは一体何なのか」という問いに対して、明確で体系的な答えを提示することです。私たちの目標は、この曖昧さを具体的な知識で置き換え、その本質を明らかにすることにあります。

まず、機械学習を魔法のような技術として捉えるのではなく、そのルーツを理解することから始めましょう。機械学習とは、コンピューターがデータから自動的に「学習」し、特定のタスクに対するルールやパターンを発見する技術分野です。人間がすべてのルールを明示的にプログラムするのではなく、データという「教師」からシステム自身が賢くなっていく点が特徴です。

そして、この考え方は全く新しいものではありません。実は、統計学の世界で古くから使われてきた「回帰分析」も、機械学習の枠組みで捉えることができる手法の一つです。回帰分析の本質は、「既知の事実(データ)をもとに、未知の状態(相関)を推測する」という点にあります。これはまさに、機械学習が目指すところと一致します。既知のデータ(例えば、過去の販売実績)から法則性(モデル)を学び、それを使って未知のデータ(例えば、来月の売上)を予測するのです。この学習プロセスで使われる、正解が与えられたデータを「教師データ」と呼びます。

ただし、統計学と機械学習では、その主眼に置くものが少し異なります。古典的な統計学が、しばしば変数間の因果関係を「説明」することに重きを置くのに対し、機械学習は多くの場合、未知のデータに対する「予測」の精度を最大化することを最優先の目標とします 1。この目的の違いが、時にニューラルネットワークのような非常に高性能でありながら、その判断根拠が人間には理解しにくい「ブラックボックス」モデルの活用を正当化します。この「予測性能」と「解釈可能性」の間のトレードオフは、機械学習を理解する上で非常に重要なテーマであり、本記事を通じて何度も触れることになるでしょう。

この記事では、機械学習の広大な世界を理解するための地図として、学習方法の最も基本的な分類から探求を始めます。機械学習は、主に「教師あり学習」「教師なし学習」「強化学習」の3つに大別されます 3。今回は、その中でも特に多くの実用例を持つ最初の二つ、すなわち「教師あり学習」と「教師なし学習」に焦点を当てます。

  • 教師あり学習 — 正解(ラベル)が与えられたデータから学習し、未来を予測する手法です。まるで答えの書かれた問題集で勉強するようなものです。
  • 教師なし学習 — 正解が与えられていないデータの中から、その構造やパターンを自ら見つけ出す手法です。答えのない問題集を前に、データそのものと向き合い、洞察を得るプロセスに似ています。
  • 応用と組み合わせ — これらの学習手法が、実際のシステム(例えば、Eコマースサイトの推薦機能)でどのように組み合わされて使われているかを見ていきます。

この旅を通じて、皆さんが機械学習の「正体」を掴み、その可能性と限界を深く理解するための一助となれば幸いです。それでは、探求を始めましょう。

教師あり学習 — 正解を教え、未来を予測する

教師あり学習の基本

教師あり学習は、機械学習の中で最も直感的で、広く応用されているアプローチです。その名前が示す通り、この学習方法には「教師」が存在します。しかし、その教師とは人間ではなく、データに付与された「ラベル」や「正解」のことです 1

例えば、犬と猫の画像を分類するモデルを作りたいとします。この場合、コンピューターに何千枚もの画像を見せるだけでは不十分です。それぞれの画像に対して、「この画像は犬です」「この画像は猫です」という正解ラベルを付けて与える必要があります 5。この「画像(入力)」と「ラベル(出力)」のペアが、学習のためのデータセットとなります。

このラベル付きデータセットを使って、モデルは入力と出力の間の関係性、つまりパターンを学習します。学習の目標は、この関係性を一般化し、これまで見たことのない新しいデータ(ラベルが付いていない画像)が与えられたときに、その正解を高い精度で予測できるようになることです 4。スパムメールの検出、天気予報、株価予測など、多くの身近な技術がこの教師あり学習の原理に基づいています 1

教師あり学習は、予測したい出力(ラベル)の種類によって、主に二つのタスクに分類されます。この分類を理解することは、特定の問題に対してどのアルゴリズムを選択すべきかを判断するための第一歩となります。

  1. 回帰 (Regression)
    予測する対象が「連続的な数値」である場合の問題を指します 6。例えば、「明日の最高気温(25.5度など)」「来月の売上高(1,200万円など)」「特定の中古住宅の価格(3,580万円など)」といった、量や数値を予測するタスクがこれに該当します。出力は、切れ目のない連続した値となります。
  2. 分類 (Classification)
    予測する対象が「離散的なカテゴリ(クラス)」である場合の問題です 2。データがどのグループに属するかを仕分けるタスクと言えます。例えば、「メールがスパムか、スパムでないか(2クラス分類)」「画像に写っている動物が犬か、猫か、鳥か(多クラス分類)」「顧客がローンを返済するか、デフォルト(債務不履行)するか(2クラス分類)」などが挙げられます。出力は、あらかじめ定義されたグループのいずれかになります。

このように、予測したいものが「数値」なのか「カテゴリ」なのかによって、用いるべき手法が根本的に異なります。次のセクションからは、この回帰と分類のそれぞれについて、代表的なアルゴリズムを詳しく見ていきましょう。

回帰:連続値を予測する

回帰は、教師あり学習の中でも特に歴史が古く、統計学の基礎とも言える分野です。その目的は、一つまたは複数の入力変数(説明変数)と、一つの連続的な出力変数(目的変数)との関係をモデル化し、新たな入力に対して出力を予測することにあります。ここでは、最も基本的な線形回帰と、その発展形であるベイズ線形回帰について解説します。

線形回帰 (Linear Regression)

線形回帰は、回帰問題に取り組む上で最もシンプルで基本的な手法です。その考え方は、データ点(例えば、勉強時間とテストの点数)をグラフ上にプロットしたとき、それらの点の中心を最もよく通る「一本の直線」を見つけ出すことにあります。この直線を「回帰直線」と呼びます。

  • 仕組み
    データ点と直線の間の距離(誤差)の二乗和が最小になるように、直線の傾きと切片を数学的に決定します。入力変数が一つの場合を「単回帰分析」、複数の場合を「重回帰分析」と呼びますが、現実の問題では複数の要因が結果に影響するため、重回帰分析が用いられるケースがほとんどです。
  • 応用例
    線形回帰の用途は多岐にわたります。例えば、気温とアイスクリームの売上の関係を分析して売上を予測したり、広告費とウェブサイトの訪問者数の関係から、広告予算の効果を測定したりする際に利用されます。
  • 限界
    線形回帰は強力なツールですが、万能ではありません。この手法は、変数間に「線形な(直線的な)」関係があることを前提としています。しかし、現実世界の現象は必ずしも直線で表現できるわけではありません。また、データの分布から大きく外れた値(外れ値)があると、回帰直線がその外れ値に大きく引っ張られてしまい、予測精度が低下する可能性があります。

ベイズ線形回帰 (Bayesian Linear Regression)

通常の線形回帰が「唯一の最適な直線」を見つけようとするのに対し、ベイズ線形回帰は異なるアプローチを取ります。この手法は、データに適合しそうな「無数の可能性のある直線」を考え、それぞれの直線がどれくらい確からしいかを確率として計算します 7

  • 仕組み
    ベイズ統計学の考え方に基づき、モデルは「事前確率分布(データを見る前の、直線のパラメータに関する信念)」から出発します。そして、観測されたデータを基に、この信念を更新し、「事後確率分布(データを見た後の、より確からしい直線のパラメータの分布)」を求めます 7
  • 重要な特徴:不確実性の表現
    ベイズ線形回帰の最大の特徴は、予測結果を「この値です」という一点で示すのではなく、「おおよそこの範囲に収まるでしょう」と、予測の記事不確かさ(幅)記事を伴って提示することです 7。例えば、売上予測であれば、「来月の売上は1,000万円です」ではなく、「来月の売上は1,000万円である可能性が最も高いですが、95%の確率で850万円から1,150万円の間に収まるでしょう」といった形で結果を出力します。
  • 応用例
    この「自信の度合い」を数値化できる能力は、特に慎重な意思決定が求められる分野で非常に価値があります。例えば、金融市場の予測、新薬の効果測定、あるいは少量のデータしか得られない状況での科学的モデリングなど、予測の信頼性が結果の解釈に大きく影響する場面で役立ちます。

通常の線形回帰が単一の「答え」を提示するのに対し、ベイズ線形回帰は「答えの分布」を提示します。これは単なる技術的な違いに留まりません。後者は、モデル自身の「分かっていること」と「分かっていないこと」を正直に伝える能力を持っており、これにより私たちはより現実的で、リスクを考慮した判断を下すことができるのです。

分類:データをグループに仕分ける

分類は、データをあらかじめ定義されたカテゴリに仕分けるための教師あり学習タスクです。迷惑メールを判定したり、顧客が商品を購入するかどうかを予測したりと、ビジネス上の意思決定に直結する多くの問題が分類問題として定式化されます。ここでは、古典的な手法から現代のAIの中核をなす技術まで、主要な分類アルゴリズムを解説します。

ロジスティック回帰 (Logistic Regression)

ロジスティック回帰は、その名前に「回帰」とありますが、実際には分類問題、特に「Yes/No」や「成功/失敗」のような2つのクラス(二値)に分ける問題で広く使われる手法です 10

  • 仕組み
    線形回帰が直線を引くのに対し、ロジスティック回帰は「S字型の曲線(シグモイド関数)」を用います。この曲線は、どのような入力値に対しても、出力を0から1の間の確率値に変換する性質を持っています。例えば、ある顧客が商品を購入する「確率」を75% (0.75) のように計算します。最終的な分類は、この確率と事前に決めたしきい値(例えば50%)を比較して行われます。確率がしきい値以上なら「購入する」、未満なら「購入しない」と判断します 10。このモデルの解釈可能性は高く、各入力変数が結果の確率をどれだけ増減させるか(オッズ比)を分析することができます 11
  • 応用例
    そのシンプルさと解釈のしやすさから、様々な分野で活用されています。医療現場では、患者の検査データから特定の病気を発症するリスクを予測し、予防指導に役立てます 11。金融業界では、顧客情報からローンの不正利用やクレジットカードの不正取引を検知します 10。マーケティングでは、顧客の閲覧履歴からキャンペーンDMへの反応確率を予測し、費用対効果の高い施策を打ちます 11
  • 長所と短所
    長所は、モデルがシンプルで計算が高速なこと、そして結果の解釈が容易な点です 11。一方で、変数間の複雑な非線形の関係性を捉えるのは苦手です 13。また、関連性の高い説明変数が複数含まれている場合(多重共線性)、モデルが不安定になることがあります 14

多クラス分類 (Multi-class Classification)

分類したいグループが3つ以上ある場合、それは多クラス分類問題となります 15。例えば、手書きの数字(0から9の10クラス)を認識したり、ニュース記事を「スポーツ」「経済」「国際」「科学」といったカテゴリに分類したりするタスクです。

  • 仕組み
    多クラス分類では、モデルは入力データに対して、それぞれのクラスに属する確率やスコアを計算します。そして、最も高い確率(スコア)が得られたクラスを最終的な予測結果として選択します 16。この確率計算には、しばしば「ソフトマックス関数」という活性化関数が用いられ、すべてのクラスの確率の合計が1になるように出力を正規化します 17

決定木 (Decision Tree)

決定木は、一連の「もし〜なら、こうする」という形式の質問を繰り返すことで、結論を導き出す分類手法です。その構造が木の枝分かれのように見えることから、この名前が付けられました。

  • 仕組み
    データの集まりを、ある質問(例えば「年齢は30歳以上か?」)によって2つ以上のグループに分割します。そして、分割された各グループに対して、さらに別の質問を投げかけ、分割を繰り返していきます。このプロセスを続け、最終的に各グループが単一のクラス(結論)で構成されるようになった時点で停止します。この木の構造は、フローチャートのように視覚化できるため、非常に直感的です。
  • 応用例
    顧客データを分析して、商品を購入する可能性が高い層と低い層を特定する(顧客セグメンテーション)18、症状から病気の可能性を探る(医療診断支援)19、あるいは通信サービスの解約につながる要因を特定し、解約防止策を立案する 20 など、原因究明や意思決定プロセスの可視化が重要な場面で活躍します。
  • 長所と短所
    最大の長所は、その解釈可能性の高さです。モデルがなぜそのような結論に至ったのか、その判断ルールを人間が容易に理解できます 18。また、データの前処理(スケーリングなど)が比較的少なくて済むという利点もあります 21

    一方、最大の短所は記事過学習(Overfitting)記事に陥りやすいことです 21。つまり、学習データに過剰に適合しすぎてしまい、未知のデータに対する予測精度が低くなる傾向があります。また、学習データが少し変わるだけで、全く異なる形の木が生成されることがあり、モデルが不安定になりがちです 21

サポートベクターマシン (Support Vector Machine, SVM)

サポートベクターマシン(SVM)は、分類問題において非常に強力で、高い性能を発揮することで知られるアルゴリズムです。特にディープラーニングが普及する以前は、多くの分野で最先端の性能を誇っていました 25

  • 仕組み
    2つのクラスのデータを分離する「境界線(超平面)」を引くことを考えます。SVMは、単に分離するだけでなく、その境界線と各クラスの最も近くにあるデータ点との間の記事隙間(マージン)記事が最大になるような、最も「余裕のある」境界線を見つけ出そうとします。このマージンを決定している、境界線に最も近いデータ点のことを「サポートベクター」と呼びます。このマージン最大化という考え方により、未知のデータに対する高い汎化性能(予測精度)が期待できます 26。
  • カーネルトリック
    SVMの真価は「カーネルトリック」という技法にあります 27。データが直線ではきれいに分離できない複雑な配置(非線形)であっても、カーネルトリックを使うことで、データをより高次元の空間に写像し、そこで線形分離可能な問題として扱うことができます。この変換を、実際に高次元空間で計算することなく、効率的に行えるのが特徴です 25
  • 応用例
    その高い分類性能から、手書き文字認識、顔検出などの画像認識 28、スパムメールフィルタリングのようなテキスト分類 28、遺伝子データ解析やがん診断などの医療・バイオインフォマティクス分野 27、さらには金融分野での倒産予測や不正検知 27 まで、幅広い分野で活用されています。
  • 長所と短所
    長所は、高次元データでも効果的に機能し、過学習を起こしにくい点です 26。特に、データ数が比較的少ない場合でも高い性能を発揮することがあります 25。

    短所としては、大規模なデータセットに対しては計算コストが非常に高くなり、学習に時間がかかる点が挙げられます 25。また、どのカーネル関数を選択するか、そしてそのパラメータをどう調整するかが性能に大きく影響し、試行錯誤が必要になる場合があります 31。決定木とは対照的に、モデルの内部が複雑で、なぜそのように分類したのかを直感的に理解するのは困難です 31

ニューラルネットワーク (Neural Network)

ニューラルネットワークは、人間の脳の神経回路網(ニューロン)の仕組みにヒントを得て作られた数学モデルです。近年のAIブームの中心にある「ディープラーニング(深層学習)」は、このニューラルネットワークの層を深く(多層に)したものです 32

  • 仕組み
    ニューラルネットワークは、「入力層」「隠れ層(中間層)」「出力層」という複数の層から構成されます。各層には複数の「ニューロン」と呼ばれるノードが存在し、異なる層のニューロン同士が「重み」のついた線で結ばれています。データが入力層から入ると、各ニューロンで計算が行われ、その結果が次の層へと伝播していきます。学習プロセスでは、出力層で得られた予測と正解ラベルを比較し、その誤差を小さくするように、各結合の「重み」を少しずつ調整していきます(この調整手法を誤差逆伝播法と呼びます)33。このプロセスを大量のデータで繰り返すことで、ネットワークは非常に複雑なパターンを学習していきます。
  • 応用例
    ニューラルネットワークは、特に複雑なパターン認識タスクで圧倒的な性能を発揮します。
  • 画像認識:畳み込みニューラルネットワーク(CNN)は、画像の中の物体を識別するのに使われ、自動運転車の標識認識や、医療画像からの癌の検出などに活用されています 32
  • 自然言語処理:再帰型ニューラルネットワーク(RNN)などは、文章のような時系列データの扱いに長けており、Google翻訳のような機械翻訳システムや、音声アシスタントの音声認識の根幹をなす技術です 33
  • その他:株価の予測、マッチングアプリの推薦ロジック、異常検知システムなど、その応用範囲は枚挙にいとまがありません 34
  • 長所と短所
    最大の長所は、データが十分に存在すれば、他のどの手法でも捉えられないような、極めて複雑で非線形な関係性を学習できる点です。これにより、多くのタスクで最先端の性能を達成しています。
    一方で、多くの弱点も抱えています。非常に大量のラベル付き学習データを必要とし、モデルの学習には高性能なコンピュータ(GPUなど)と長い時間が必要です。また、モデルが複雑すぎるため、過学習に陥りやすいという深刻な問題があり、これを防ぐための様々なテクニックが不可欠です 35。そして、SVM以上に記事究極の「ブラックボックス」記事であり、モデルがなぜ特定の判断を下したのかを人間が理解することは極めて困難です。

教師あり学習手法の比較

これまで見てきたように、教師あり学習には多種多様なアルゴリズムが存在します。そして、あらゆる問題に対して万能な「最強のアルゴリズム」というものは存在しません。ある問題で優れた性能を発揮するモデルが、別の問題では全く役に立たないこともあります。これは「ノーフリーランチ(ただ飯はない)定理」として知られる考え方です。

したがって、データサイエンティストやエンジニアに求められるのは、それぞれのアルゴリズムの長所と短所を深く理解し、解決したい課題の性質に応じて適切なツールを選択する能力です。その選択は、単に予測精度だけでなく、計算コスト、結果の解釈可能性、そしてビジネス上の要求といった、複数の要素を考慮した上で行われなければなりません。

例えば、金融機関が顧客のローン申請を審査するモデルを考えてみましょう。この場合、単に「承認」か「否決」かを高い精度で予測するだけでは不十分です。なぜその顧客の申請が否決されたのか、その理由を顧客や規制当局に対して明確に「説明」できる必要があります。このような状況では、予測精度が多少劣ったとしても、判断根拠が透明な決定木やロジスティック回帰の方が、高性能だがブラックボックスであるニューラルネットワークよりも適していると言えるでしょう 19

逆に、スマートフォンの顔認証システムではどうでしょうか。ここでは、認証のプロセスをユーザーに説明する必要はありません。求められるのは、何百万というユーザーの顔を、いかなる状況でも高速かつ正確に識別するという、純粋な性能です。この場合、解釈可能性を犠牲にしてでも、ニューラルネットワークのような高性能なモデルを採用するのが合理的です。

このように、アルゴリズムの選択は、技術的なトレードオフと、その技術が使われる社会的・ビジネス的文脈とのバランスを取る、戦略的な意思決定なのです。以下の表は、これまで議論してきた主要な分類アルゴリズムの特徴をまとめたものです。これは、皆さんが特定の問題に直面した際に、どの手法を検討すべきかを考えるための戦略的な地図となるでしょう。

表1:主要な分類アルゴリズムの戦略的比較

手法予測性能(精度)解釈可能性(説明のしやすさ)計算コスト(速度)データ要件最適な応用例
ロジスティック回帰低〜中低(高速)線形分離可能なデータ、多重共線性に注意 13確率予測、原因分析(例:顧客の購入確率予測、疾病リスク要因分析)11
決定木低〜中非常に高い低(高速)少ない前処理で済むが、過学習に注意 21ルールの発見、意思決定プロセスの可視化(例:顧客セグメンテーション、解約原因分析)18
サポートベクターマシン (SVM)高(特に大規模データで遅い)26高次元データ、比較的小さなデータセットに強い 25高精度な分類が求められる問題(例:画像認識、テキスト分類、生物情報学)28
ニューラルネットワーク非常に高い非常に低い(ブラックボックス)非常に高い(学習に時間がかかる)34大量のラベル付きデータが必要 34複雑な非線形パターンの認識(例:画像・音声認識、自然言語処理、自動運転)32

この表は、アルゴリズム間に存在する根本的なトレードオフを明確に示しています。一般的に、解釈可能性が高いモデル(ロジスティック回帰、決定木)は予測性能が控えめであり、予測性能が非常に高いモデル(ニューラルネットワーク)は解釈可能性が著しく低いという傾向が見て取れます。SVMは、これらの間でバランスの取れた選択肢となることが多いですが、その調整には専門知識を要します。機械学習を実践するとは、この地図を片手に、目の前の課題という目的地へ至る最適なルートを探す旅のようなものなのです。

教師なし学習 — データに隠された構造を見つけ出す

教師なし学習の基本

これまでの教師あり学習が「正解ラベル」という明確な指導者の下で学習を進めるのに対し、教師なし学習は全く異なるアプローチを取ります。ここには、道しるべとなる正解ラベルは存在しません 1。アルゴリズムに与えられるのは、ラベルのない生のデータのみです。その目的は、データそのものの中に内在する、人間がまだ気づいていない構造、パターン、あるいは自然なグループ分けを発見することにあります 4

例えるなら、教師あり学習は答え付きの問題集で解法を学ぶ作業ですが、教師なし学習は、整理されていない大量のカードの中から、似た絵柄のものを集めてグループを作ったり、関係性の深いカードを並べたりする作業に似ています。ルールは誰も教えてくれません。データ自身の特徴から、分類の基準を見つけ出すのです。

このアプローチの重要な点は、アルゴリズムが発見したグループやパターンに、意味を与えるのは人間の役割であるという点です 4。例えば、教師なし学習を使ってECサイトの顧客データをいくつかのグループに分けることはできます。しかし、アルゴリズムはそれらのグループを「節約志向の若者」や「高所得のファミリー層」といった具体的な名前で呼ぶことはできません。データサイエンティストやマーケティング担当者が、各グループの顧客の属性や購買履歴を分析し、その特徴を解釈して初めて、そのグループ分けがビジネス上の意味を持つようになるのです。

教師なし学習は、特に正解データを用意することが困難な、あるいはそもそも正解が存在しないような問題でその真価を発揮します 5。大量のデータから未知の傾向を掴みたい場合や、異常なパターンを検出したい場合に非常に有効です 5

この記事では、教師なし学習の主要なタスクとして、以下の二つを詳しく見ていきます。

  1. クラスタリング (Clustering)
    データセットを、互いに似た性質を持つデータ点の集まり(クラスター)に分割する手法です 37
  2. 次元削減 (Dimensionality Reduction) / 情報圧縮
    データの持つ本質的な情報を可能な限り維持しながら、変数の数(次元)を減らしてデータをシンプルにする手法です。これにより、データの可視化や、他の分析の前処理が容易になります 37

クラスタリング:似たもの同士を集める

クラスタリングは、教師なし学習の中でも最も代表的なタスクの一つです。その目的は、データセットをいくつかのグループ(クラスター)に分割することにあります。このとき、同じクラスター内のデータ点は互いに似ており、異なるクラスター間のデータ点は互いに似ていない、という状態を目指します。

教師あり学習の「分類」と似ていますが、決定的な違いは、クラスタリングには事前に定義されたクラスラベルが存在しない点です。データそのものの構造から、自然なグループ分けを発見します。

「近さ」の測り方

クラスタリングの根幹をなすのは、「データ点同士がどの程度近いか(似ているか)」を数値化するという考え方です。この「近さ」を測る最も一般的な方法が、ユークリッド距離です。これは、私たちが学校で習う三平方の定理(ピタゴラスの定理)を一般化したものです。

二次元空間(変数が2つ)において、2点間の距離 c は、各座標の差 a と b を用いて、c2=a2+b2 で計算できます。この考え方は、変数が3つ、4つ、...と増えていくn次元空間にも拡張することができ、2点間の「距離」を数学的に定義することが可能です 39。この距離が短いほど、データ点は「似ている」と判断されます。

k-means法 (k-means Clustering)

k-means法は、数あるクラスタリングアルゴリズムの中でも特に有名で、広く使われている手法です。その考え方は、「互いに近いデータは同じクラスターに属する」というシンプルなものです 40

  • 仕組み
    k-means法のアルゴリズムは、以下の反復的なステップで構成されます 41
  1. ステップ1:クラスター数 k の決定
    最初に、データをいくつのクラスターに分けたいか、その数 k を人間が指定する必要があります。これがこの手法の「k」の由来です。
  2. ステップ2:初期重心の設定
    k 個の「重心(セントロイド)」と呼ばれる点を、データ空間内にランダムに配置します。これらが各クラスターの仮の中心となります。
  3. ステップ3:データ点の割り当て
    すべてのデータ点について、k 個の重心との距離(通常はユークリッド距離)を計算し、最も距離が近い重心のクラスターにそのデータ点を割り当てます。
  4. ステップ4:重心の更新
    各クラスターに割り当てられた全てのデータ点の平均的な位置を計算し、その位置に重心を移動させます。つまり、重心がクラスターの「真ん中」に来るように更新します。
  5. ステップ5:繰り返し
    ステップ3とステップ4を、各データ点の所属クラスターが変化しなくなるまで(あるいは重心の位置がほとんど動かなくなるまで)繰り返します。このプロセスが収束したとき、クラスタリングは完了です。
  • 応用例
    k-means法は、そのシンプルさと効率性から、様々な分野で活用されています。最も代表的なのが、マーケティングにおける顧客セグメンテーションです。顧客の年齢、購買頻度、購入金額などのデータから顧客をいくつかのクラスターに分けることで、「ロイヤルカスタマー層」「新規顧客層」「離反予備軍」といったグループを発見し、それぞれに最適化されたアプローチを行うことができます 42。その他、文書データをトピックごとに分類したり、画像の色を減色したりする際にも利用されます。
  • 限界
    k-means法は強力ですが、いくつかの注意点があります。まず、最適なクラスター数 k を事前に知ることは難しく、人間が試行錯誤しながら決定する必要があります。また、重心の初期配置がランダムであるため、実行するたびに結果がわずかに変わる可能性があります 39。さらに、データの中に極端な外れ値が存在すると、重心がその外れ値に引っ張られてしまい、適切なクラスターが形成されないことがあります 42。そして、この手法は球状のクラスターを見つけるのが得意であり、複雑な形状のクラスターを捉えるのは苦手です 39

次元削減:データの要点を絞り込む

現代のデータ分析では、何十、何百、時には何千もの変数(特徴量)を持つ高次元のデータを扱うことが珍しくありません。しかし、変数が多すぎることは必ずしも良いことではありません。これは「次元の呪い」として知られる問題を引き起こします 37

変数が多すぎると、以下のような問題が生じます。

  • データ全体の構造を直感的に把握したり、グラフで可視化したりすることが困難になる 43
  • モデルの学習に必要な計算時間が爆発的に増加する。
  • 予測に関係のない変数がノイズとして働き、かえってモデルの精度を低下させてしまう 37

記事次元削減(情報圧縮)記事は、こうした問題を解決するための手法です。その目的は、元のデータが持つ本質的な情報をできるだけ失うことなく、変数の数を減らすことにあります。これにより、データの可視化、ノイズ除去、計算コストの削減、そして最終的にはモデル精度の向上が期待できます 37。顔認証技術のように、大量の情報から個人の特徴を決定づける重要な要素だけを抽出するプロセスも、次元削減の一種と考えることができます。

ここでは、最も代表的な二つの次元削減手法、主成分分析(PCA)と特異値分解(SVD)について解説します。

主成分分析 (Principal Component Analysis, PCA)

主成分分析(PCA)は、多数の変数を、より少ない数の「主成分」と呼ばれる新しい合成変数で要約するための、最も古典的で強力な手法です。

  • 仕組み
    PCAは、データの「ばらつき(分散)」が最も大きい方向を見つけ出し、それを「第一主成分」と定めます。この第一主成分軸は、元のデータを最もよく代表する一本の軸と考えることができます。次に、第一主成分とは直交する(相関がない)方向の中で、データのばらつきが次に大きい方向を「第二主成分」として見つけ出します。このプロセスを繰り返すことで、元の変数の数と同じだけの主成分が得られます 37

    重要なのは、通常、最初の数個の主成分(第一、第二、第三...)だけで、元のデータが持つ情報の大部分(例えば、全体のばらつきの70〜80%)を説明できることです 43。そこで、これらの少数の主成分だけを新しい変数として採用することで、次元を効果的に削減します。例えば、身長と体重という2つの変数から、それらを統合した「体格指数(BMI)」という1つの新しい指標を作り出すようなイメージです 43
  • 応用例
    PCAの用途は多岐にわたります。
  • データ可視化:3次元以上の高次元データを、第一主成分と第二主成分をそれぞれX軸とY軸にとることで、2次元の散布図にプロットし、データの全体像を視覚的に把握することができます 43
  • 前処理:回帰分析や分類分析を行う前にPCAを適用し、変数の数を減らすことで、計算効率を高めたり、変数間の相関(多重共線性)の問題を回避したりします 43
  • 応用分野:市場調査における顧客満足度アンケートの分析 45、製造業における製品の不良品原因の探索 43、AIの画像処理における学習時間の短縮 43 など、様々な場面で活用されています。

特異値分解 (Singular Value Decomposition, SVD)

特異値分解(SVD)は、線形代数における非常に強力な行列分解の手法であり、どのような行列(数字が長方形に並んだ表)でも、性質の良い3つの特別な行列の積に分解することができます 46

  • 仕組み
    SVDは、行列を「回転 → 伸縮 → 再び回転」という3つの操作に分解するイメージです。この真ん中の「伸縮」を担う行列には、「特異値」と呼ばれる値が対角線上に並んでいます。この特異値が大きいほど、その方向への「伸び」が大きく、データの構造にとってより重要であることを意味します。PCAとSVDは数学的に深く関連しており、SVDはPCAを計算するためのエンジンとして機能します 47。
  • 応用例:画像圧縮と低ランク近似
    SVDの強力さを示す良い例が画像圧縮です 46。一枚の画像は、ピクセル値が並んだ行列と見なせます。この画像行列をSVDで分解すると、多数の「構成要素となる画像」と、それぞれの重要度を示す「特異値」のペアが得られます。

    元の画像を完全に復元するには、すべての構成要素を足し合わせる必要があります。しかし、特異値の大きい(重要度の高い)少数の構成要素だけを使って画像を再構成しても、人間の目にはほとんど遜色のない、質の高い近似画像が得られます。例えば、772個の構成要素からなるカエルの画像を、重要度の高い30個の要素だけで再構成しても、十分にカエルとして認識できるのです 46

    このように、本質的でない情報(小さな特異値に対応する要素)を切り捨て、元の行列をより少ない情報で近似することを低ランク近似と呼びます。これは、データの本質的な構造、つまり「信号」をノイズから分離するプロセスと考えることができます。この技術は、画像圧縮だけでなく、推薦システムやノイズ除去など、データ分析の様々な分野で基礎となる重要な役割を担っています。

次元削減は、単にデータを小さくするための技術ではありません。それは、複雑なデータの中に隠された、よりシンプルで意味のある「本質的な構造」を発見するための、強力な分析ツールなのです。PCAが生み出す主成分が、元の変数群を統合した新たな「概念」を表現することがあるように、次元削減は私たちにデータに対する新しい視点を与えてくれるのです。

学習手法の応用と組み合わせ

レコメンデーションシステム

これまで、教師あり学習と教師なし学習をそれぞれ独立したツールとして見てきました。しかし、現実世界の複雑な問題を解決するためには、これらの手法を単独で用いるのではなく、巧みに組み合わせて一つのシステム、すなわち「パイプライン」を構築することが一般的です。その最も代表的で分かりやすい例が、AmazonやNetflixのようなEコマースサイトや動画配信サービスで目にする「あなたへのおすすめ(レコメンデーション)」機能です。

このセクションでは、レコメンデーションシステムをケーススタディとして、異なる学習パラダイムがどのように連携して価値を生み出すのかを探求します。これにより、個々のアルゴリズムの知識から、それらを組み合わせたシステム設計という、より実践的で専門的な視点へと移行していきます。

協調フィルタリング:みんなの「好き」から、あなたの「好き」を予測する

レコメンデーションシステムの根幹をなす技術の一つが協調フィルタリング (Collaborative Filtering) です。その基本的な考え方は非常に直感的です。「あなたと好みが似ている人々が気に入っているもので、あなたがまだ知らないものは、あなたも気に入る可能性が高いだろう」という仮定に基づいています 48。このアプローチの強みは、商品の特徴(例えば、映画のジャンルや監督、俳優など)を一切知らなくても、ユーザーの行動履歴(評価、購買、閲覧など)というデータさえあれば推薦が可能である点です 48

  • ユーザー-アイテム行列
    協調フィルタリングの出発点は、ユーザーの行動データを巨大な行列(表)にまとめることです。この「ユーザー-アイテム行列」では、行が各ユーザー、列が各アイテム(商品や映画など)に対応し、行列の中の各セルには、そのユーザーがそのアイテムをどのように評価したか(例えば、5段階評価の星の数や、購入したかどうかの1/0)が記録されます 49

    しかし、ほとんどのユーザーは、膨大な数のアイテムのうち、ごく一部しか評価したり購入したりしません。そのため、この行列のほとんどのセルは空欄(データが存在しない)となり、非常に記事疎(スパース)記事な行列となります 50。協調フィルタリングの課題は、このスカスカの行列の空欄部分を予測し、ユーザーが気に入りそうなアイテムを見つけ出すことにあります。

協調フィルタリングの2つのアプローチと学習手法の組み合わせ

協調フィルタリングには、主に二つのアプローチが存在し、それぞれに教師あり・なし学習が巧みに利用されています 49

  1. ユーザーベース協調フィルタリング
    このアプローチは、「あなたと似ているユーザーを見つける」ことから始まります。
  • ステップ1(教師なし学習): まず、全ユーザーの中から、あなたと行動履歴や評価パターンが似ているユーザーのグループを探し出します。これはまさに、ユーザーを「好みの似たグループ」に分けるクラスタリングの問題です。k-means法のような教師なし学習アルゴリズムを使い、ユーザーを行動パターンに基づいていくつかのセグメントに分類することができます。
  • ステップ2(推薦): 次に、あなたと似ていると判断されたユーザーグループ(ご近所さん)が高く評価しているアイテムの中で、あなたがまだ評価していないものを探し出し、それをあなたへの推薦候補とします 49
  1. アイテムベース協調フィルタリング
    こちらは、「あなたが過去に気に入ったアイテムと似ているアイテムを見つける」アプローチです。
  • ステップ1(類似度計算): ここで言う「類似」とは、アイテムの物理的な特徴が似ていることではありません。「多くのユーザーから同じように評価される傾向にある」という意味での類似です。例えば、映画Aを高く評価した人の多くが映画Cも高く評価している場合、システムはAとCを「似ているアイテム」と見なします。このアイテム間の類似度は、ユーザー-アイテム行列の列ベクトル間の近さ(コサイン類似度などが用いられる)を計算することで求められます 49
  • ステップ2(推薦): あなたが過去に高く評価したアイテム(例えば映画A)と類似度が高いアイテム(映画C)を、推薦候補として提示します。

ハイブリッドな性質:教師あり学習の役割

さらに、このプロセスに教師あり学習を組み込むことで、より精度の高い推薦が可能になります。例えば、ユーザーとアイテムの潜在的な特徴を捉えた後で、あるユーザーが特定のアイテムを星いくつで評価するかを予測するタスクは、連続値を予測する回帰問題として定式化できます。過去の評価データを教師データとして回帰モデルを学習させることで、未評価アイテムに対する具体的な評価値を予測し、その予測値が高い順に推薦することができるのです。

このように、現代のレコメンデーションシステムは、単一のアルゴリズムに頼るのではなく、

  • 教師なし学習(クラスタリングや次元削減) を用いて、データの中からユーザーやアイテムの潜在的な構造やグループを発見し、
  • 教師あり学習(回帰や分類) を用いて、その構造を基に具体的な予測を行う、
    という多段的なパイプラインを形成しています。これは、機械学習の実践が、個々のモデル選択から、複数のモデルを組み合わせたシステム全体のアーキテクチャ設計へと進化していることを示しています。この視点は、AIがどのようにして私たちの身の回りの製品やサービスに組み込まれているかを理解する上で、非常に重要なものとなります。

おわりに:機械学習と共に

本記事では、「機械学習の正体」を知るという目的のもと、その基本的な概念から主要なアルゴリズム、そして実世界での応用までを探求してきました。漠然とした「カッコいい技術」というイメージから一歩踏み出し、その仕組みと論理を体系的に理解する旅でした。最後に、これまでの議論を総括し、今後の展望について触れたいと思います。

本記事の要点

  1. 機械学習は統計学の延長線上にある
    機械学習は、決して無から生まれた魔法ではありません。その根底には、データからパターンを学び、未知を推測するという、統計学と共通の思想が流れています。ただし、その主眼は、しばしば因果関係の「説明」から、未知のデータに対する「予測」の精度最大化へとシフトしています。
  2. 学習方法の二大潮流:「教師あり」と「教師なし」
    機械学習の最も基本的な分類は、学習データに「正解ラベル」があるかないかです。
  • 教師あり学習は、正解を頼りに未来の数値を予測(回帰)したり、カテゴリを仕分けたり(分類)します。
  • 教師なし学習は、正解のないデータから、その中に隠された構造(クラスタリング)や本質(次元削減)を自ら発見します。
  1. 「ただ飯はない」:アルゴリズム選択はトレードオフの芸術
    あらゆる問題に通用する万能のアルゴリズムは存在しません。モデルの選択は、常に予測性能、解釈可能性、計算コストといった要素間のトレードオフを考慮した戦略的な判断です。高い精度を誇るモデルはしばしばブラックボックスであり、その判断根拠を説明することが困難です。ビジネスや社会の文脈に応じて、「最適な」モデルは変わるのです。

学びの先にあるもの

この記事では、機械学習の広大な世界の入り口に立ったに過ぎません。皆さんがさらに学びを深めるにあたり、次のような分野が存在することを知っておくと良いでしょう。

  • 強化学習 (Reinforcement Learning)
    教師あり・なし学習とは異なる第三のパラダイムです。明確な正解が与えられる代わりに、エージェントが試行錯誤を繰り返し、行動の結果として得られる「報酬」を最大化するように学習します 3。囲碁で人間に勝利したAlphaGoや、ロボット制御、ゲームAIなどに応用されています。
  • 半教師あり学習 (Semi-Supervised Learning)
    現実世界では、ラベル付きデータは高価で入手が難しく、ラベルなしデータは大量に存在する場合がほとんどです。半教師あり学習は、この両者を組み合わせ、少量のラベル付きデータと大量のラベルなしデータを活用して効率的に学習する、非常に実用的なアプローチです 5

機械学習は、もはや専門家だけのものではありません。それは、データを活用してより良い意思決定を下すための、強力な「道具」です。その真の力は、アルゴリズムの複雑さにあるのではなく、私たちがこの道具をいかに思慮深く、創造的に、そして倫理的に用いて、現実世界の問題を解決していくかにかかっています。

本記事を通じて、皆さんが機械学習に対する漠然としたイメージを、確かな知識の土台へと変えることができたのであれば、これに勝る喜びはありません。ここから始まる皆さんの探求の旅が、実り多きものとなることを心から願っています。

参考情報

  1. 教師あり学習と教師なし学習の違いとは - Alteryx, 記事https://www.alteryx.com/ja/glossary/supervised-vs-unsupervised-learning
  2. 機械学習入門者向け 分類と回帰の違いをプログラムを書いて学ぼう - Avintonジャパン, 記事https://avinton.com/academy/classification-regression/
  3. 機械学習の分類と回帰とは?学習手法の概要から違いまで解説! - アンドエンジニア, 記事https://and-engineer.com/articles/ZMH2YREAACQlHm0j
  4. 教師あり学習と教師なし学習の違いと代表的なアルゴリズムがわかる! - YouTube, 記事https://www.youtube.com/watch?v=O9APb0818Do
  5. 【2025】教師あり学習と教師なし学習の違いとは?それぞれの特徴やメリットを比較 | DX/AI研究所, 記事https://ai-kenkyujo.com/artificial-intelligence/kyoushiarigakusyu-kyoushinasigakusyu/
  6. 機械学習の回帰とは?分類との違い・メリット・学習方法など解説! - AINOW, 記事https://ainow.ai/2022/02/11/263089/
  7. Pythonで「線形回帰」と"確率版の線形回帰"である「ベイズ線形回帰 ..., 記事https://qiita.com/ysdyt/items/05a884354741bd9ca82b
  8. PyMC3を使ったPythonベイズ推定超入門(その3)ベイズ型線形回帰モデルを作ってみよう!, 記事https://www.salesanalytics.co.jp/datascience/datascience110/
  9. 第13回 ベイズ線形回帰[後編] | gihyo.jp, 記事https://gihyo.jp/dev/serial/01/machine-learning/0013
  10. ロジスティック回帰分析とは?特徴や活用シーンを解説 - AIsmiley, 記事https://aismiley.co.jp/ai_news/logistic-regression/
  11. ロジスティック回帰の基本から実装までわかりやすく解説! | キ ..., 記事https://www.kikagaku.co.jp/kikagaku-blog/logistic-regression/
  12. aismiley.co.jp, 記事ロジスティック回帰分析とは?特徴や活用シーンを解説 | DXを推進するAIポータルメディア「AIsmiley」
  13. ロジスティック回帰入門 - AI用語解説 AIコンパス, 記事https://ai-compass.weeybrid.co.jp/algorizm/introduction-to-logistic-regression/
  14. ロジスティック回帰分析をわかりやすく解説!使える場面や実装方法は? - ainow, 記事https://ainow.jp/logistic-regression-analysis/
  15. 【G検定】多クラス分類 - つくもちブログ 〜Python&AIまとめ〜, 記事https://tt-tsukumochi.com/archives/9538
  16. 混同行列(多クラス分類モデル) - DataRobot docs, 記事https://docs.datarobot.com/ja/docs/modeling/analyze-models/evaluate/multiclass.html
  17. 多クラス分類 – AI用語集(G検定対応) - zero to one, 記事https://zero2one.jp/ai-word/multi-class-classification/
  18. 決定木分析とは? メリットやデメリット、マーケティングへの活用方法をわかりやすく解説 - Jitera, 記事https://jitera.com/ja/insights/43057
  19. 決定木のすゝめ #Python - Qiita, 記事https://qiita.com/tarantula426/items/82e9991270c2ba3bc6f8
  20. 決定木分析の事例を使ってメリットや活用場面を紹介 :データ解析・分析手法, 記事https://www.nttcoms.com/service/research/dataanalysis/decision-tree/
  21. 決定木についてわかりやすく解説 | 化学とインフォマティクスと時々雑記, 記事https://boritaso-blog.com/dicision_tree/
  22. 決定木系機械学習モデルの特徴と選び方 - Qiita, 記事https://qiita.com/UKI_datascience/items/421cb55f50840f27915a
  23. 決定木アルゴリズム徹底解説:基本概念、歴史、メリット・デメリット、実用例、プログラミング言語での実装方法 | Reinforz Insight, 記事https://reinforz.co.jp/bizmedia/5369/
  24. 【徹底解説】決定木 - Staat, 記事https://corvus-window.com/whats_decision-tree/
  25. サポートベクターマシン(SVM)とは?メリットと活用のための課題 - 株式会社ProFab, 記事https://profab.co.jp/what-is-support-vector-machine/
  26. サポートベクターマシンをわかりやすく説明!SVMの仕組みとは?メリット・デメリット - AI Market, 記事https://ai-market.jp/howto/what_is_ai-svm/
  27. サポートベクターマシン(SVM)とは?仕組みや分類をわかりやすく解説 - Jitera, 記事https://jitera.com/ja/insights/41717
  28. SVM(サポートベクターマシン)とは?特徴や仕組み、メリットや活用事例をわかりやすく徹底解説!, 記事https://gen-ai-media.guga.or.jp/glossary/svm/
  29. サポートベクターマシン(SVM)とは?その種類や利点、実装方法を ..., 記事https://www.ai-souken.com/article/what-is-svm
  30. サポートベクターマシン(SVM)とは?【Python実装例】 - Nuco, 記事https://nuco.co.jp/blog/article/_hzsw1eK
  31. 【2025】SVM(サポートベクターマシン)とは?メリット・デメリットや実装方法 | DX/AI研究所, 記事https://ai-kenkyujo.com/artificial-intelligence/algorithm/svm/
  32. ニューラルネットワークとは?仕組みや種類、学習手法や活用事例なども解説 | EAGLYS, 記事https://eaglys.co.jp/resource/columns/neuralnetwork
  33. ニューラルネットワークの基本知識。仕組みや種類、活用事例 - Laboro.AI, 記事https://laboro.ai/activity/column/laboro/neuralnetwork/
  34. 【活用例あり】ニューラルネットワークとは?仕組みや種類をわかりやすく解説 - Jitera, 記事https://jitera.com/ja/insights/53089
  35. ニューラルネットワークとは?機械学習・深層学習との関係や活用例などを解説 - G-gen, 記事https://g-gen.co.jp/useful/General-tech/explain-neural-network/
  36. ChatGPT先生に学ぶデータサイエンス 第7回:教師なし学習とクラスタリング - POWERED GPT, 記事ChatGPT先生に学ぶデータサイエンス 第7回:教師なし学習とクラスタリング
  37. 第6章 教師なし学習|AI Curriculum Theory - Zenn, 記事https://zenn.dev/academix/books/0da15caa65b59f/viewer/6_unsupervised
  38. 教師なし学習とは何か? クラスタリングやアルゴリズムをわかりやすく解説する - ビジネス+IT, 記事https://www.sbbit.jp/article/cont1/46835
  39. k-means法 - ITエンジニア ノイのブログ, 記事https://engineernoi.hatenablog.com/entry/2023/10/22/152031
  40. k平均法(k-means)アルゴリズムをわかりやすく解説【Pythonコード有】 - zero to one, 記事https://zero2one.jp/learningblog/k-means-clustering-python/
  41. k-means法を理解する #Python - Qiita, 記事https://qiita.com/g-k/items/0d5d22a12a4507ecbf11
  42. k-means法とは?アルゴリズムやPythonの実装をわかりやすく解説, 記事https://shoblog.iiyan.net/k-means-method/
  43. 【ビジネス向け】主成分分析とは|目的や活用方法、具体例を紹介 ..., 記事https://library.musubu.in/articles/54105
  44. 主成分分析とは? R を使った分析例や因子分析との違いを解説, 記事https://quest-research.co.jp/research/principal-component-analysis
  45. 主成分分析完全ガイド: 基礎理論、実践手順、応用例 - アスマーク, 記事https://www.asmarq.co.jp/column/column-cat/glossary/principal-component_analysis/
  46. 分解すると見える世界 ー特異値分解ー | Think IT(シンクイット), 記事https://thinkit.co.jp/article/16884
  47. 特異値分解入門 –基礎から画像処理への応用まで– (2nd ver.) 講師:新井仁之 [ 応用線形代数講義 No.1 ] - YouTube, 記事https://www.youtube.com/watch?v=2kJmGyEGwJU
  48. 協調フィルタリングって何?商品のおすすめ機能を学ぼう! - Udemy メディア, 記事https://udemy.benesse.co.jp/data-science/ai/collaborative-filtering.html
  49. 協調フィルタリングとは | IBM, 記事https://www.ibm.com/jp-ja/think/topics/collaborative-filtering
  50. 第5回 協調フィルタリング | gihyo.jp, 記事https://gihyo.jp/dev/serial/01/information-recommendation-system/0005

-ビジネス全般, ビッグデータ, 統計学

© 2025 RWE