製品進化とマネジメント風景 第43話 コンピュータ進化のパラダイムシフトとマネジメント
20世紀後半からすさまじい勢いで伸びてきたコンピュータの情報処理能力ですが、21世紀の今、その処理速度のペースが落ち始めました。コンピュータの処理速度の指標としては1秒間に実行できる演算速度で比較される場合が多く、その最先端の状況はスーパーコンピュータをモニターすることで知ることができます。
処理速度の向上は、当初はクロックスピードの向上により実現されました。それを支えたのが微細化技術です。しかし、微細化が進み、今は3nmとか2nmの世界まで来てしまいました。ナノの世界になると、次第に量子の性質が高まり、通常の我々の世界の常識が通用しなくなることが知られています。微細化が進んだ結果、リーク電流が増え、熱の問題が浮上してきました。半導体は熱に弱いので、これを制御する必要があります。現在のスーパーコンピュータを支えているのは、誤解を恐れずに単純化して言えばCPUの冷却です。
冷却技術により熱の問題を改善してはいますが、これまでの指数的なスピードでの向上は達成できなくなってきています。処理速度を向上するもう1つの対策は並列化であり、今日の最先端スーパーコンピュータはどれも並列処理をしています。
2020年には日本のスーパーコンピュータ「富岳」が演算速度で世界のトップに立ちました。その処理速度は440 PFLOSです。Pはpetaであり、10の15乗を意味します。かつて世界のトップだった「京」は10の12乗でした(国際単位系で表現するとtera)。すごい演算速度ですが、消費する最大電力は28 MWであり、こちらもすさまじい。日本の平均的な家庭のピーク電力は3KWですので約9000世帯分に相当します。これだけの出力が必要な製品例としてジェット機をあげましょう。ジェット機は離陸する時に最大出力を出しますが、28 MWという出力は、150席クラスであるAirbus 320やBoing Max 8が離陸に必要な出力の半分程度に相当します。これらのジェット機はエンジンを2台搭載していますので、エンジン1台分の出力相当だということです。スーパーコンピュータが非常な電力喰いであることが分かります。これを常時使用するには、実は専用のミニ発電所を横に置いておく必要があるということです。
2018-2019年には米国の「サミット」が世界トップでした。演算性能は150 PFLOPSであり、ピーク電力は10 MWでした。性能も電力も「富岳」の約3分の一であり、省エネ技術は同レベルにあることが分かります。2016-2017年に世界のトップだったのは中国の「神威・太胡之光」でした。性能は95 PFLOPSであり、ピーク電力は15 MWでした。「富岳」はピーク電力が約2倍で性能は4倍強となっているので、省エネ技術において一歩進んでいることが分かります。
ちなみに人間の脳には860億個ものシナプスがあり、1つのシナプスは1000個程度の別のシナプスと繋がっており、CPUのようにデジタル演算処理をします。1秒間の演算数は10の15乗に相当すると言われており、前述のpetaを超えてexaの領域にあります。もちろん、人間の脳は、四則演算などの計算は不得意であり同じ比較はできません。脳は、身体中からのセンサ情報から並列処理をして身体を正常に保っています。意識を司る大脳のシナプス数は、無意識を司る小脳の四分の一程度の数なので、脳の80%は無意識に並列処理をしていることになります。ある意味では「富岳」を超える演算能力を持つ脳ですが、その消費電力はたったの20-25 Wです。「富岳」の百万分の一です。脳は究極の省エネコンピュータなのです。
今のコンピュータ・アーキテクチャーはチューリング型あるいはノイマン型と呼ばれています。プログラムに沿って1つずつ情報処理をしていくタイプであり、構造解析、流体解析といった数値計算は得意です。ノイマン型はCPUを複数持つことで並列処理はできますが、組み合わせ最適問題のように1つずつケーススタディをするのは苦手です。今日の社会において残された問題の多くは、この組み合わせ最適問題です。この種の問題は、組み合わせ数が増えると指数関数的に計算量が増えるため、最速のスーパーコンピュータを用いても数十年、数百年かかるものがでてきます。そこで、最近話題になる頻度が増えたのが量子コンピュータです。特にグーグルが量子超越を達成したというニュース以降に増えました。量子超越の達成というのは明らかに誇張ですが、新しいコンピュータ・アーキテクチャーの時代が始まる予感がします。
量子コンピュータとは、量子の重ね合わせ現象を用いたコンピュータです。従来コンピュータでは0と1の組み合わせで計算をし、1ビットのメモリは0か1のどちらかの値を取ります。量子コンピュータでは、1ビットの中に0と1の両方の情報を保持することができます。同じビットでも全く異なるため、Qビットという言い方がされるようになってきました。1 Qビットに2つの情報を保持できると、50 Qビットあれば10の15乗の情報を同時に保持でき、並列演算できることを意味します。従来のノイマン型では並列処理はCPUの数で決まります。「富岳」では約15万個ものCPUが搭載されていますが、並列レベルは10の5乗しかなく、その差は歴然ですね。
最近ではGPU (Graphics Processing Unit)をCPUと併用するコンピュータが増えてきました。もともと描画専用でしたが、それ以外の用途にも拡張されました。GPUには数千個のプロセッサーが搭載されているため、単純計算であれば並列処理は得意であり、しかも電力消費が低いという特性があります。量子コンピュータには及びませんが、量子コンピュータが実用化されるまでの期間、GPUは重宝されると思います。「富岳」を追い抜く次のスーパーコンピュータには、GPUが多数搭載されている可能性が高いと思います。
さて、量子コンピュータについては、アナログ式とデジタル式の2系統があります。アナログ式には、直接的な断熱量子、量子アニーリング、直接的量子シミュレーションなどがあり、特にアニーリング方式は既に商用化されています。アナログ式の問題は、まだ誤り訂正法が見つかっていないことです。そのため、現時点では複雑な問題に適用するのが困難と考えられています。これに対してデジタル式あるいはゲート方式は、誤り訂正を組み込むことにより計算精度を向上することが可能であり、革新を起こす可能性があります。ここではゲート方式量子コンピュータに絞って話を進めていきます。
量子コンピュータでは、0と1の重ね合わせを実現する量子として何を使うかという問題があります。候補として、光子、イオン量子、超伝導量子、半導体量子、核磁気共鳴量子などが検討されています。どのタイプにも共通していることは従来のコンピュータと比べて消費電力を大きく低減できる可能性が高いということです。
光子は常温で扱えるというメリットがあり、量子暗号についてはすでに商用化されています。偏波の方向(垂直か水平)などによって0と1を区別します。この方式は小型化が難しいという本質的課題があります。イオン方式は、電子が入っている軌道の違いによって0と1を区別し、レーザーによって量子を制御します。イオンは自然界にある安定した存在であり、量子の重ね合わせを長時間保つことが可能です。超伝導量子はグーグルが公表したものですがIBMなども研究しています。極低温の超伝導状態にして人工的な原子の組を作り、どちらに電子があるかで0と1を区別します。電磁波を照射して制御します。超伝導量子の課題は、やはり人工的な存在だからでしょうか、安定性に欠けることです。しかし小型化が可能です。半導体量子は、半導体基板内に電子を閉じ込め、電子スピンの方向によって0と1を区別し、制御は光学的に行います。従来の半導体と同様に集積して小型化することが可能ですが、現時点では他の方式と比べて遅れています。ただ、実現すれば、既存の半導体技術を活用できるのでそこに大きなメリットがあります。これ以外にも核磁気共鳴量子など、いくつかの量子候補があります。
素晴らしい能力を持つ量子コンピュータですが、その用途としては何があるでしょうか? 現在、世の中で検討されている案件の中でブレークスルーが期待できる分野は化学プロセスです。具体的に言うと環境負荷が小さいエネルギーや物質の生産プロセスです。従来の延長線上の用途としては、道路や工場内の渋滞解消、スループット向上の最適化があります。一方、ネガティブな利用の代表は暗号解読です。当然ですが、全般的な活用として、人工知能(AI)への適用も議論されています。
化学プロセスの革新については大きな期待がかけられています。グーグルのCEOは、一例としてアンモニア生成プロセスをあげています。現在の工業生産法はハーバー・ボッシュ法と呼ばれ、水素と窒素を500℃で数百気圧の環境で反応させて造っています。当然、大量のエネルギー投入が必要です。一方、自然界では、微生物が、人間が製造しているアンモニアと同程度の量を、常温常圧の環境において圧倒的に少ないエネルギー消費によって生産しています。良く知られている例は、マメ科の根に付いて共生している窒素固定菌です。生物の実現している省エネ生成方法を実現するためには、多くの試行錯誤が必要ですが、量子コンピュータは膨大な試行錯誤の中から候補を絞り込むのが得意です。また、究極の再生可能エネルギーとして光合成があります。植物は容易にこれを実施していますが、人間はそのメカニズムをある程度理解していますが、まだ、真似できません。植物の光合成プロセスを真似て工業化し、さらにその効率を高めることに成功すれば、非常に大きな成果になるでしょう。しかし、そのためにはやはり膨大な試行錯誤が必要であり、量子コンピュータはその膨大な試行錯誤の中から試す価値の高い解を見つけるのに役立つと考えられます。
現在のインターネット社会は暗号技術によって正常に保たれています。暗号がすぐに解読されるようになれば、クレジットカードを使ったネット販売や銀行間の送金なども使えなくなります。今日のメジャーな暗号方式は公開鍵方式ですが、その1つとしてRSA暗号が多用されています。RSAは素数を使った暗号であり、大きな数字を因数分解することの難しさを利用しています。現在は2048ビット、617桁の数字が使われています。RSA暗号を解読するには、10の26乗の演算が必要といわれており、仮に前述した世界最速スーパーコンピュータ「富岳」を使うと7年程度の時間がかかる勘定となります。近年のスーパーコンピュータ記録更新はだいたい2年で2倍のペースなので、これが続けば10年後には1000倍となります。7年が2.5日に短縮され、悪用される可能性が非常に高くなります。そのため、2030年には新規格の暗号への変更が議論されています。一番簡単なのはRSAのビット数を増やすことですが、量子コンピュータが実現すると無力化するリスクがあります。
2017年に発表された量子コンピュータによるRSA暗号解読の検討結果(文献1)では、4000 Qビットあれば2048ビットのRSA暗号を24時間程度で解読できると報告されています。ただし、量子は不安定でノイズに弱く、間違いを起こしやすいという問題があるため、誤り訂正用のQビットが必要不可欠です。前述の4000 Qビットの計算においても、誤り訂正用のために約1000万Qビットが存在することを前提としています。大きな数字ですが、2014年以降は年に2倍のペースでQビットが増えていますので、このペースで進めば2040年を待たずに実用化される可能性があります。よって、量子コンピュータが出てきても耐性を持つ暗号が検討され始め、すでに符号暗号、多変数多項式暗号、格子暗号、同種写像暗号などが提案されています。
量子コンピュータを使って日々の仕事をするにはまだ時間がかかると考えます。それが実現するまでは、GPUの活用が進んでコンピュータ計算速度が高められて、構造解析や流体解析などのシミュレーションの分野で活躍するでしょう。しかし、革新を導くような大規模の組み合わせ最適問題には歯が立たちません。とは言え、全く手の打ちようが無いかというとそうではないと思います。それは、人間の脳という一種の量子コンピュータの力と、高性能のノイマン型コンピュータを組み合わせれば、力任せに計算するよりもずっと効率的に組み合わせ最適問題を解決できると考えられるからです。AIの能力向上も類似の話と考えています。結局、AIをどう上手に学習させるかが課題であり、人間以外に良い教師はいません。今後の進む方向は、人間の知恵と入手可能な計算能力を組み合わせたハイブリッドモデルになると考えます。
今日では、かつてのように、単一の専門性だけで顧客価値を満足させる製品、サービスを生み出すことは困難になってきました。上記のハイブリッドモデルを作るにしても多数の専門分野における人間の知恵を組み込む必要があります。そのためには、まず、異分野の専門人材を有機的に統合して知恵として昇華する仕組みが必要です。貴社はどのようにその仕組みを構築していきますか?
参考文献
1.V. Gheorghiu and M. Mosca, A resource estimation framework for quantum attacks against cryptographic functions, GRI quantum risk assessment report, 2017