最新AI論文をキャッチアップ

量子機械学習で何が起こっているのか?

量子機械学習で何が起こっているのか?

Quantum Machine Learning

3つの要点
✔️ 量子機械学習の最近の動向
✔️ 古典的な機械学習と量子機械学習との比較
✔️ 量子機械学習の新しい傾向と将来

New Trends in Quantum Machine Learning
written by Lorenzo BuffoniFilippo Caruso
(Submitted on 22 Aug 2021)
Comments: Published on arxiv.

Subjects:  Quantum Physics (quant-ph); Disordered Systems and Neural Networks (cond-mat.dis-nn); Machine Learning (cs.LG); Machine Learning (stat.ML)

code: 
 

ssue

 

EPL

Volume 132, Number 6, December 2020

 
 

Article Number

 

60004

Number of page(s)

 

7

Section

 

General

DOI

 

https://doi.org/10.1209/0295-5075/132/60004

本記事で使用している画像は論文中のもの、紹介スライドのもの、またはそれを参考に作成したものを使用しております。  

はじめ

機械学習は国際的な分野になっています。MLはますます強力になっており、これらのシステムの学習や開発の難易度も急速に高まっています。このため、研究者の間では、量子コンピューティングを利用した機械学習(QML)への関心が高まっています。大小のハイテク企業が、量子コンピュータでMLを実行するための開発に投資を始めています。

しかし、量子コンピューティング自体はかなり難しい。何百万個もの量子ビットを統合する必要があるフォールト・トレラントな量子コンピュータの開発は困難を極めます。現在利用可能なNoisy Intermediate Scale Quantum(NISQ)デバイス上で強力なQMLアルゴリズムを実現できる可能性はいくつかあります。実際、すでにいくつかのブレークスルーがなされており、本論文では、機械学習の3つの主要領域(教師あり学習、教師なし学習、強化学習)におけるQMLの新しい可能性について説明します。

QMLの種類 

QMLは、データが量子的なものか古典的なものか、使用するMLアルゴリズムが量子的なものか古典的なものかによって分類されます。上の図のように、データとアルゴリズムのどちらか、あるいは両方が量子的であれば、その計算は量子コンピューティングと言えます:QQ, QC, CQ。これは厳密な分類ではなく、いくつかのハイブリッドアルゴリズムも使用されています。例えば、最適化タスクのみを量子プロセッサで実行し、残りを古典プロセッサで実行するケースもあります。しかし、本稿ではこの分類にこだわって説明していきます。

教師あり学習におけるQML 

現在のNISQデバイスには、いくつかの教師あり学習アルゴリズムが実装されています。その1つは、古典的なデータをより大きな量子(Hilbert)空間に埋め込み、超平面によってクラスを分離しやすくするアプローチです。このアプローチは、古典的なサポートベクターマシンに似ています。埋め込みには、シングルおよびマルチ量子ビットゲートで構成される量子回路を使用します。記号的には、古典的なデータxを単一の量子ビット|x|にマッピングすることはを次のように定義しています。

 

ここでRXRYはX軸とY軸に沿った回転演算子であり、回転角1, θ2, θ3}はモデルの学習可能なパラメータです。すべてのデータポイントが埋め込まれたら、SWAPテストを使って、任意の2つのポイント間のオーバーラップを計算します。同じクラスの点(状態)は1に近い重なりを持ち、異なるクラスの点は0に近い重なりを持ちます。したがって、データセットは分類されることになります。

例として、上の図は、IBM Valencia QPU(5量子ビットで構成)で実施した10個の検証ポイントの理論的グラムマトリックス(a)と実験的グラムマトリックス(b)を示しています。多少のノイズはあるものの、クラス間の良好な分類境界を得ることができました。現在のところ、この方法は、1または2量子ビットに埋め込まれたより小さなデータセットに有効です。理論的には、100量子ビット、回路深さ100、decoherence時間10−3s,の回路に、O(1010)ビットの古典情報を埋め込むことができます。

古典的な情報が量子空間に埋め込まれると、直交しない量子状態の集合を識別することが困難になります。解決策としては、2つの量子状態を正しく識別できる確率が最も高くなるように、古典的なニューラルネットワークを最適化することが挙げられます。しかし、この確率論的アプローチは、Helstrom boundと呼ばれる理論的限界にすぐに近づいてしまいます。

CQ型アプリケーション(量子データと古典的アルゴリズム)として、人工ニューラルネットワークは、確率的量子力学における量子雑音判別に利用できます。この分野では、SVM、GRU、LSTMなどのMLアルゴリズムが有望な候補となります。

教師なし学習におけるQML

教師なし学習ははるかに難しく、そのためほとんど解決されていません。

クラスタリングアルゴリズムでは、ユークリッド距離のような距離尺度を用いて、任意の2点間の距離を計算し、距離行列を作成します。 この行列は、重み付きグラフGの隣接行列と解釈することもでき、クラスタリングの問題は、グラフG上のMAXCUT最適化問題に還元されます。このMAXCUT問題はNP-completeであり、解くのが非常に難しいです。クラスタリング問題の解決には、古典的なアルゴリズムに量子ベースの最適化手法を適用するハイブリッドアプローチが用いられています。

Variational Autoencoders(VAE)は、複雑なデータ分布を学習することができる一般的な生成モデルです。 VAEは確率分布を学習します。通常、事後分布はディープニューラルネットワークによって実装され、事前分布は単純な分布(i.i.d.ガウス変数やベルヌーイ変数など)です。なぜなら、複雑な確率分布を表現できる大規模なグラフを利用して事前分布に生成能力をオフロードすることは、古典的にコストがかかりすぎるからです。

GANもまた、生成学習モデルの一つです。識別器モデルと生成器モデルは、ある時点でナッシュ平衡に達し、生成器は望ましい(実在の)データ分布を正確に再現することができる。量子GANは、古典GANの拡張であり、QQ型QMLの一例です。QGANでは、量子物理システム(例えば量子ビットのレジスタ)の状態を再現することを学習することが目的としています。

強化学習におけるQML

RLをQMLに一般化することで、量子迷路問題と呼ばれるQQ型の問題を解くことができます。量子迷路とは、トポロジーが完全な迷路で表されるネットワークです。すなわち、迷路上の2つのエッジポイント間には一意のパスが存在し、迷路の状態の進化は量子的です。迷路の経路はノード間のリンクによって定義され、そのリンクは隣接行列A(Ai,j = リンクがある場合は1、ない場合は0)によって記述されます。目標は、この脱出確率を最短時間で最大化することです。

迷路がRLの環境であり、外部のコントローラがエージェントとして動作します。エージェントは、システムの量子状態に関する何らかの情報を持っています。エージェントは、迷路の壁を作る(Ai,j=1)、または破壊する(Ai,j=0)ことで、迷路の状態を変えることもできます。また、ランダムに反転させることで、迷路の状態を本質的に変化させることもできます。

上の図は、6×6の完全迷路上で説明した動作を行うようにエージェントを学習させた例を示しています。より多くの母集団を最後まで移動させることでより良い報酬を得る方法をエージェントが学習することで、ベースラインの確率的量子ウォーカーよりも性能が向上しています。このRLアプローチは、複雑なネットワーク上のエネルギーや情報の輸送を最適化し、より優れたQMLやNISQ技術の開発につながる可能性があります。

まとめ

本論文は、純量子(QQ)および古典-量子ハイブリッドアルゴリズムとデータの最近の動向に関する貴重な洞察を提供するものでした。量子コンピュータや量子機械学習は、まだ開発の初期段階にあります。この論文で指摘されているように、QMLの理論的な見通しは数多くあります。しかし、現在のQMLシステムは、古典的なMLシステムと比較して、リソースを必要とし、劣った性能しか示しません。現実のシナリオで展開可能なQMLシステムの開発には、多くの努力が必要です。

まだまだと感じる人もいえると思いますが、開発段階であり、これからの進展に注目していきたい技術であることは間違いありません。

  • メルマガ登録(ver
  • ライター
  • エンジニア_大募集!!
Thapa Samrat avatar
今大阪大学の電子情報工学科で学習している2年生のネパールからの留学生です。 機械学習・深層学習に興味あります。だから、暇なときにそれらについて記事を書いています。

記事の内容等について改善箇所などございましたら、
お問い合わせフォームよりAI-SCHOLAR編集部の方にご連絡を頂けますと幸いです。
どうぞよろしくお願いします。

お問い合わせする