何ができるの?機械学習の学習モデル10種類の特徴と活用事例

様々な分野で活用されている機械学習。

言葉は聞いたことがあっても、実際にどんな場面で活用できるか理解している人は少ないのではないでしょうか?

機械学習には様々な手法があるため、今回の記事では代表的な10種類の学習モデルについて、それぞれの特徴と活用事例を紹介させていただきます。

機械学習とは

まず、機械学習と混同しやすい言葉に人工知能やディープラーニングがありますが、それらの関係は以下の図のようになっています。機械学習は人工知能に含まれており、機械学習の一部にディープラーニングという技術があります。歴史的に見ても、はじめに人工知能(AI)という概念が生まれ、次に機械学習が発展し、最後にディープラーニングが登場しました。

▼AIについてはこちらの記事をご参照ください。

【AI活用の第一歩】正しく知ってる?AIの定義や歴史、種類など

機械学習はその名の通り機械が学習して特定のタスクを遂行する技術ですが、学習の方法には大きく分けて教師あり学習、教師なし学習、強化学習の3種類があります。さらに、教師あり学習は回帰と分類に分けられており、それぞれの学習方法には様々なモデルが存在します。

10種類の機械学習の学習モデルとその事例

この記事の本題はここからです。

機械学習には様々な学習モデルがありますが、それぞれどのような場面で活用されており、どんな特徴があるのでしょうか?

事例を挙げて順番に紹介していきます。

線形回帰

事例

  • 収縮期血圧と年齢の関係について分析する
  • 駅の平均乗降客数と売上高の関係について分析する
  • ビールの販売ケース数と最高気温の関係について分析する
  • あるクラスの点数の分布から学年全体の点数の分布を分析する

線形回帰は主に、年齢と血圧、売上と来店客数、所得と消費のように、ある一方が他方を左右するという一方向の関係にあるものの分析に使います。

予測したい変数は従属変数(または目的変数)、他の変数の値を予測するために使用する変数は独立変数(または説明変数)と呼ばれます。

正則化

事例

  • 線形回帰と同様

機械学習で学習モデルを構築する際には、「過学習」と言って、コンピューターが手元にあるデータから学習しすぎた結果予測がうまくできなくなってしまう状態に陥ることがあります。線形回帰は連続変数の予測モデルとして優れていますが、説明変数が増えると過学習してしまうことがあります。

正則化とは、線形回帰の過学習を防ぐために使用するもので、複雑になったモデルをシンプルにすることで過学習を解決します。

サポートベクターマシン(SVM)

事例

  • 迷惑メールと通常のメールの区別
  • 郵便番号を認識して分類する
  • 事前に画像ピクセルから出された値から顔を否かを識別する(顔認識)
  • あらゆる地域・災害を対象に、過去のデータから災害危険度を評価する

機械学習の方法としてパターン認識という手法があります。パターン認識とは、画像や音声などといった膨大なデータの中から一定の特徴や規則性を選別して取り出す処理のことです。この認識方法は人間はごく自然に行っていますが、これをコンピューターに実現させるためにパターン認識を活用します。

SVM はパターン認識の手法を用いて物事を分類することです。SVMの特徴として、データの次元が大きくなっても識別精度が高いことや、最適化すべきパラメータが少ないことが挙げられます。

決定木・ランダムフォレスト

事例

  • 休日、天気などの要素がアイスクリーム購入者の行動にどれだけ影響を与えているのか分析する
  • Webサイト上での行動履歴や登録された個人の属性情報を用いるデジタルマーケティング
  • テニスの未経験者層において、今後テニスを行う見込みが高い層にはどのような特徴があるのか分析する

決定木とは、データから”木”構造(樹形図)の予測モデルを作る機械学習の手法であり、何らかの意思決定を助けるために用いられるものです。そして、複数の決定木を集めたものをランダムフォレストと言います。

画像引用:Cacco 決定木分析(ディシジョンツリー)とは?概要や活用方法、ランダムフォレストも解説

決定木は解析対象のデータの分布を仮定しないノンパラメトリックな手法であり、様々な尺度を用いることができ、外れ値にも強いという特徴があります。一方で、他の機械学習の手法に比べ分類精度は低く、線形データにはあまり適していません。過学習を起こしやすいため、いくつかのパラメータの調整も必要になります。

k近傍法

事例

  • 設備に対する異常検知
  • 工場のラインで不良品を検知する
  • 作業員の持込持出物品をチェックする
  • 雪道の路面状態をリアルタイムに判別する

k近傍法とは、時系列に対するデータに対して距離を定め、その距離から「異常値なのかどうか」を判断するものです。

ただし、すべての要素までの距離を計算する必要があるため、データが大きくなるほど膨大な数の計算が必要となりデータ量が制限されてしまうなどの欠点があります。

ロジスティック回帰

事例

  • 喫煙と飲酒の量に応じて、がんが発生する確率を予測する
  • 営業担当者の電話回数と受注率の分析など、マーケティング分野での活用

ロジスティック回帰とは、いくつかの要因(説明変数)から「*2値の結果(目的変数)」が起こる確率を説明・予測することができるものです。ロジスティック回帰では、イエスとノーを明確に定義して、ある特定の現象が起こる確率を予測することができます。

*2値:試験の合格/不合格のように答えが2つしかない値のことを言います。

分析結果に高い精度が求められる分野においても活用されており、一定の訓練を積めばデータ分析の専門家でなくても実行することができるという特徴があります。

また、ロジスティック回帰は名前に「回帰」と入っていますが、確率値を回帰で求めて分類問題を解くということで「分類」の学習モデルとなっています。紛らわしいので注意してください。

ニューラルネットワーク

事例

  • 機械翻訳
  • 動画に投稿されるコメントの解析
  • ECサイトや音楽ストリーミング配信サービス上のレコメンド機能
  • 株取引システムで、ある時刻に株価が上昇するか下落するかを予測する

ニューラルネットワークとは、人間の脳内の神経細胞(ニューロン)のネットワーク構造を模倣した機械学習の手法のひとつです。

ニューラルネットワークの構造は、入力が行われる「入力層」、出力が行われる「出力層」、間に「隠れ層(中間層)」を加え、そのつながりを「重み」でパラメーターとして調整したものになります。ニューラルネットワークをベースにして応用された手法がディープラーニングです。

クラスタリング

事例

  • 大量のテキストデータを自動で仕分けする
  • 楽曲のジャンル分け
  • 顧客の性別や年齢、趣味、嗜好などにしたがって顧客市場を細分化するなど、マーケティング分野での活用

クラスタリングは、データ間の類似度にもとづいて、データをグループ分けする手法です。この単語は機械学習や統計学の文脈以外でも使われることが多いため、機械学習や統計学の分野ではクラスタ分析データ・クラスタリングとも呼ばれます。

「データをグループ分けする」と聞くと「分類」に当てはまりそうな感じがしますが、分類は教師あり学習でありクラスタリングとは異なります。クラスタリングは教師なし学習で、どのグループに所属するなどの答えはなく、データをもとに特徴を学習してグループ分けします。

次元削減 (PCA : 主成分分析)

事例

  • 画像のノイズ除去
  • 高次元のデータセットを可視化してデータ同士の関係やクラスタなどのパターンを予測する
  • 教師あり学習のアルゴリズムの精度を向上させる

次元削減とは、データを圧縮したり可視化するためにデータの次元数を減らすことです。データセットが膨大になりやすい機械学習の分野において、データの圧縮は計算資源の有効活用という点について、非常に有用です。

次元削減の手法はいくつかありますが、代表的なものにPCA(主成分分析)があります。主成分分析では、特徴量を抽出することによって、データセット内の特徴量を削減することが出来ます。

DQN

事例

  • コンピュータ囲碁プログラム「AlphaGo」
  • オンラインゲームにおける顧客体験向上
  • 自然エネルギー発電網の最適化

DQNはDeep Q-Networkの略で、Q学習にニューラルネットワークの考え方を含めた強化学習の手法です。Q学習とは、ある状態のときにとったある行動の価値をQテーブルと呼ばれるテーブルで管理し、行動する毎にQ値を更新していく手法です。

報酬が最大になるような方法を見つけることが強化学習の目的となります。

まとめ

今回は機械学習の学習モデルについて紹介しました。

それぞれの学習方法には特徴があるので、目的やデータに合ったモデルを選択することが重要ですね。また、思うような結果が得られなかった場合には、他の学習モデルと使って分析を進めてみると解決策が見えてくるかもしれません。

また、弊社ではデータ分析やAIに関する研修を行なっていますので、そちらも参考にしてください。

機械学習を活用してデータから様々な分析をしたり、未来を予測してみましょう!