製品進化とマネジメント風景 第60話 深層機械学習の進化とその利用マネジメント
経済系の新聞・雑誌ではAI利用に関する投資増加がしばしば話題となっており、一部には、AIに投資しなければ未来は無いとまで主張するものもあります。一方、証券会社などの機関投資筋では、AIへの研究開発投資はまだ利益や成長に結びついていないという評価を出しています。他方、EUはその事業上の利用について規制強化に動き出しました。様々な意味で、AIは1つの重要な局面に来ていると考えられます。今回、本コラムでは、機械学習と深層機械学習について、その進化と利用マネジメントについて議論したいと思います。
最初に、AIを適用する人間社会の問題としてどのような事があるか、それを振り返りましょう。様々な意見が出ていますが、私は以下の4つに分類できると考えています。それらは、事業に近い順番から、「ゲーム」、「予測」、「異常検知」、そして、「データの分類と特徴抽出」の4つです。
「ゲーム」はルールが決められた人工世界におけるシミュレーションであり、オセロ、チェス、囲碁、将棋などです。この種の問題では強化学習が有効です。今ではAIの方が人間よりも強くなりました。人間という生き物は暇を持て余す傾向があり、余暇ができると娯楽が必要です。ゲームはテレビよりも能動的な娯楽であるためでしょうか、今日では世界市場としても成長株です。よって、ゲームは、AIの投資効果がある事業であると言い切ってよいでしょう。
「予測」は多くの企業が自社の事業への活用を検討中の分野です。現実社会はゲームよりもずっと複雑であるため予測精度の向上に苦労していますが、精度向上には教師あり学習が有効です。しかしこれは、教え方の上手下手で予測精度に差が付くということであり、予測精度の向上は人間のスキルへの依存度が高いということです。
「異常検知」と「データの分類と特徴抽出」は雑多なデータから何かのルールを見つける作業であり、教師なし学習を前提としています。後者は、クラスタリング、相関ルールマイニングと表現されることもあります。単純な異常検知は自動制御の分野で以前から実用化されていましたが、それを除くと、これらの分野はこれまで人間の独断場でした。後述するように、AI、特に深層機械学習が、人間の牙城とも言うべきこの分野においても成果を出し始めました。
具体的には、漠然としたデータから特徴抽出する能力が高まり、前述の予測精度を改善するパラメータ選択を人間よりも上手に行う場合が出てきたということです。ただし、既に人間が予測できた問題については、若干改善するだけですから、投資しても回収は難しいかもしれません。しかし、これまではとても予測できないと人間が諦めていた問題を予測できるようになる可能性が秘められており、ここには宝が眠っている可能性があります。こう考えると、投資しないと未来が無いとか逆に利用を規制しないと危ないといった議論が盛んになるのも理解できます。
予測の分野では、これまで、教師あり学習を前提とした機械学習が比較的小さな投資で成果を上げてきました。予測作業は、データの分類と分類されたデータへの回帰の2つに分けられます。機械学習の手法は多様ですが、ここでは実践的な手法であるバギング、ブースティング、サポートベクトルマシン、ニューラルネットワークについてのみ述べます。
通常、予測問題では分類と回帰を組み合わせて実施します。バギングとブースティングはある種の親戚関係にあります。
バギングは、データ全体(データセット)をいくつかのサブデータセットに分け、各々のサブデータセット毎に独立に学習し、それぞれ最適な関数を見つけます。そして、これらを総合して結果を出力します。分類問題では多数決で複数候補から1つを選択し、回帰問題では算術平均により数値化します。
ブースティングでもデータセットを複数のサブデータセットに分ける所までは同じです。しかし、その後が異なります。1番目のサブデータセットで学習し、最適化な関数を求め、これをデータセット全体に適用した時の誤差を評価します。次は、1番目の最適関数の誤差を減らす別の関数を加えます。データセットを2つの関数で表現しようというわけです。その際、重み付けをしますが、それは誤差を最小化するように選びます。この作業を繰り返していきます。繰り返す度に加えられる関数が増えていくため、複雑な分布のデータであっても上手にフィッティング可能です。分類問題では重み付き投票で最高得点の候補が選択され、回帰問題では重み付き平均により定量化します。一般的傾向として、計算速度では並列化が可能なバギングに優位性があり、予測精度では改善を積み重ねるブースティングに軍配が上がります。
サポートベクトルマシンは、そもそもはデータを2つに分類するための手法として開発されました。分類するための関数として、当初は線形関数のみでしたが後に非線形関数も扱えるように拡張されました。関数としては1次元の線だけでなく、多次元に拡張可能です。境界面とデータの距離の2乗を評価関数とし、これを最小化することにより境界面の関数が決まります。分類問題用として使われてきましたが、すぐに回帰にも応用できることが分かり、実用的で高度な機械学習方法として使われてきました。
最後のニューラルネットワークは、入力と出力の間に複数の隠れ層を入れ、また、隠れ層に適用する基底関数を設定し、学習用データにおける誤差を最小化します。隠れ層が数層までは機械学習に分類しますが、隠れ層が100層、200層まで増えると深層機械学習として分類されます。
機械学習の手法はニューラルネットワークも含めて全て、データの特徴抽出を人が実施し、その選択次第で予測精度が大きく変わります。そこにある種の限界があり、その限界ゆえに、AIは人間に取って変わることは不可能であると安心させるものがありました。
しかし、ニューラルネットワークの隠れ層の数を大きく増やし、層への情報の与え方を、人間の脳の使い方に合わせて設定した所、教師なし学習として雑多なデータの中から特徴を抽出できる場合があり、その特徴をパラメータ化した上で教師あり学習をすると、人間の手を借りずに人間を越える予測をできる場合があることが分かりました。とはいえ、すぐに人間を越える存在にはなりません。しかし、人間を越える可能性があると思う人達が多数おり、その道筋を模索しています。これについては後述します。
ここから深層機械学習の話に入ります。深層機械学習は、基本、深層ニューラルネットワークを意味するので、ここからの主人公はニューラルネットワークです。その歴史を俯瞰すると通常3つの時期に区分されます。
第1期は1940年代初期から1960年代半とされます。大きなトピックは3つあります。第1は、医学分野の研究の結果、人の脳神経は0か1の電気信号によって情報伝達が行われ、人の思考は2進法的な情報伝達の総合的な結果として生み出されるという仮説が提示されたことです。第2は、その仮説がフォン・ノイマンの興味を引いたことから始まります。彼は人の思考や行動を2進法で表現できる機械の発明に挑戦し、その結果、ノイマン型コンピュータ理論が誕生しました。これが2つめのトピックです。第3は、ニューラルネットワーク理論が生み出されたことです。ただし、当時の隠れ層は単層であり、すぐにその能力の限界に達し、世間は失望しました。そして最初の氷河期に入ることになりました。
第2期は1980年代初期から1990年代半ばとされます。隠れ層の多層化によりニューラルネットワークは広く応用できる可能性があることが再発見されました。ニューラルネットワークは、学習によってだんだん賢くならないと意味がありません。それまでは、実用的な学習理論がなかったのですが、この時期、学習方法として誤差逆伝播法が提案され、実用レベルで役立つことが分かってきました。考え方はシンプルです。まず、入力から出力まで前向きに計算を進め、各隠れ層でのニューロン活性値を求めてきます。当然、出力は学習データとずれがあるので、それを誤差として評価します。次は、出力から入力に向け後ろ向きに(逆向きに)誤差を伝播させていきます。この誤差伝播の重み付けはニューロン同士の結合の重みに設定します。これがうまく機能し、学習により賢くなることが実証されました。
さらに、画像解析では畳み込み型ニューラルネットワークが、また、音声解析では再帰型ニューラルネットが開発され、いわゆる犬猫判別や自然言語における推論も可能であることが判明しました。その結果、一時的にブームとなりましたが、実用には時期尚早であったこと、加えてサポートベクトルマシン等の機械学習がよりシンプルに同等の予測精度を出すまで発展したこともあり、ニューラルネットワークは二度目の氷河期に入ることになりました。
第3期は現在です。コンピュータの計算能力が格段に向上したこと、および、学習に必要なビッグデータが入手できるようになったことからAIブームが再来しました。実際、問題を限定さえすれば、機械学習は製造業でもサービス業でも生産性向上を大幅向上できることを実証しました。これに対し、深層機械学習はゲームの世界では人間を凌駕するまでになりましたが、その他の実用問題では、まだ、投資を回収できるだけの十分な成果を上げていないように見えます。ただし、技術が順調に進歩すれば、いずれ人間の能力を超えるだろうと人々に意識させるには十分なレベルに達したと言えます。現在のAIは、少なくとも昆虫レベル、少し無理すればネズミレベルの賢さに達しつつあるからです。
人間、猿、犬、ネズミを比較すると、その賢さはどの順番になるでしょうか? 大抵の人はその経験から、人間>猿>犬>ネズミと回答するでしょう。これらは哺乳類なので大脳のニューロン数を比較すると、人間は200億、猿は50億、犬が5億、ネズミが2千万であり、ニューロン数と賢さに相関があることが分かります。
ではコンピュータはどうか? ニューロン数だけで比較すると、人間に匹敵するレベルまでに来ていると思います。しかし、現在のノイマン型コンピュータでは、これ以上、人間に近づくことは無理でしょう。電力消費が多過ぎるからです。世界一のスーパーコンピュータ富岳は、人間の脳の100万倍のエネルギーを消費します。単純計算では富岳は人間を圧倒しますが、総合力では人間の足下にも及びません。深層機械学習のためにスーパーコンピュータを多用することは、効果を考えると、大抵は脱炭素化に反することになるでしょう。よって、通常のノイマン型コンピュータが人間を凌駕できる領域は限定されたミッションだけだと言い切れそうです。
ノイマン型コンピュータと異なるコンセプトである量子コンピュータが注目されていますが、これも特定のミッションに限定され、総合的に人間を凌駕する知能を持つとは思えません。しかし、人間の脳を凌駕する可能性を持つコンセプトが1つ出てきています。それはニューロモルフィック(NM)コンピュータです。これは人間の脳の働きを真似して設計されており、その集積度が高まれば人間を越える可能性があります。とはいえ、このNMも1つ大きな問題を抱えており、完成するにはまだかなりの時間がかかると予想されます。NMコンピュータについては別途、議論したいと思います。
以上より、深層機械学習は役に立ちますが、短期的に事業面で投資効果を確実に出せるには機械学習の方だと考えます。特にエッジコンピューティングへの適用は多くの分野で成長株になりそうです。機械学習では、データからの特徴抽出が鍵であることを前述しました。深層機械学習でも特徴抽出ができるようになってきましたが狭い領域に限定されています。広く全体を俯瞰して特徴抽出する能力は人間の方が優れています。よって、人間と深層機械学習が連携して機械学習用のパラメータを選定して事業に応用するのが最強であると思われます。
人間は全体像を俯瞰する部分を担当することになりますが、訓練した者と訓練していない者では大きなスキル差が生じます。このスキルの差は、投資効果に大きく影響します。
全体像を俯瞰する能力は専門性を深めても得られるものではなく、システム思考を通して世の中の雑多な事の間にある関係性を読み解くスキルです。当社は、製造業の分野においてシステム思考スキルを高めるノウハウがあります。自社だけで上手く行かない場合にはご相談ください。