ページの先頭です

技術動向レポート

「カップリング学習」が開く高次元情報予測(1/2)

情報通信研究部
シニアコンサルタント 永田 毅  コンサルタント 檜作 彰良

昨今、ディープラーニングの登場によりAIが脚光を浴びている。しかしディープラーニングは学習に大量のデータを必要とするため、適用を断念するケースも多い。当社が開発したA「I カップリング学習」は、小規模データにおいても高い予測精度を誇る次世代のAIである。本稿ではその概要について報告する。

1. カップリング学習とは

ディープラーニング等ビッグデータ解析型のAIが脚光を浴びている。確かに、ディープラーニングは優れた手法であり、当社でも精力的に取組んでいるが、その一方で、以下のような問題も指摘されている。

  • 大量のデータが必要であり、中小規模のデータには適用しづらい。
  • ネットワーク構造が複雑で、学習モデルの解析・チューニングは困難であり、学習結果の説明性に欠ける。

カップリング学習(1)(2)は、上記のような問題を解決する手法の一つである。中小規模のデータでも高い予測精度を誇り、かつ、モデルがシンプルであるため、モデルの説明性が高く、モデルの解析・チューニングも容易である。

また、カップリング学習は、画像、3Dデータ、音声、テキストなど、全体の調和が重要な高次元情報を高精度に予測できるという優れた特徴を持っている。高次元情報を予測する場合、従来の機械学習手法では、各次元に対して予測モデルを作成する必要があるが、カップリング学習では、説明変数ベクトルと目的変数ベクトルを結合(カップリング)して一度に学習するため、単一の予測モデルで多次元情報を予測することができる(図表1)。従来法で高次元データを予測した場合、予測精度の高い次元と低い次元が混在し、全体としての調和が乱れる場合があるが、カップリング学習では、次元間の相関を含めて学習するため、全体の調和を保ったまま予測することができる。

図表1 カップリング学習と従来の機械学習の違い
図表1
(資料)みずほ情報総研作成

2. カップリング学習のアルゴリズム

ここではカップリング学習のアルゴリズムについて説明する。カップリング学習では、説明変数ベクトルと目的変数ベクトルを結合(カップリング)して主成分分析を行い、説明変数ベクトルと目的変数ベクトルを同時に表現する基底を求める。そして、基底の前半(説明変数部分)を直交化する。さらに、基底の後半について、前半で求めた直交化係数で線形変換を行っておく。なお、直交化は、最も一般的なグラムシュミットの手法を用いている。ここまでが学習ステップである。

予測ステップでは、入力された説明変数ベクトルと、直交化された基底前半部との内積を求め、線形結合係数biを求める。biは説明変数ベクトルと目的変数ベクトルを同時に表現する基底の線形結合係数となっているため、bi から目的変数ベクトルを再構築することができる。このようにして、高次元ベクトルを基底の線形結合で再構築することで、全体の調和を保ったまま予測することができる。

このように、予測で利用するのは、基底ベクトルのみであり、人間が各基底を解析することが容易に可能であるため、カップリング学習で求めることのできるモデルは説明性が高い。また、予測処理は内積計算と線形結合計算のみであり、計算負荷が軽いため、PC、スマートフォンはもちろん、今後登場していくであろう、人を支える様々なスマートデバイスでも問題なく動作する。

図表2 カップリング学習の処理フロー
図表2
(資料)みずほ情報総研作成

  • 本レポートは当部の取引先配布資料として作成しております。本稿におけるありうる誤りはすべて筆者個人に属します。
  • レポートに掲載されているあらゆる内容の無断転載・複製を禁じます。全ての内容は日本の著作権法及び国際条約により保護されています。
ページの先頭へ