論文の概要: The power of quantum neural networks
- arxiv url: http://arxiv.org/abs/2011.00027v1
- Date: Fri, 30 Oct 2020 18:13:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 17:28:41.682437
- Title: The power of quantum neural networks
- Title(参考訳): 量子ニューラルネットワークの力は
- Authors: Amira Abbas, David Sutter, Christa Zoufal, Aur\'elien Lucchi, Alessio
Figalli, Stefan Woerner
- Abstract要約: しかし、短期的には、量子機械学習の利点はあまり明確ではない。
我々は、情報幾何学のツールを使用して、量子モデルと古典モデルの表現可能性の概念を定義します。
量子ニューラルネットワークは、同等の古典的ニューラルネットワークよりもはるかに優れた次元を達成可能であることを示す。
- 参考スコア(独自算出の注目度): 3.327474729829121
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fault-tolerant quantum computers offer the promise of dramatically improving
machine learning through speed-ups in computation or improved model
scalability. In the near-term, however, the benefits of quantum machine
learning are not so clear. Understanding expressibility and trainability of
quantum models-and quantum neural networks in particular-requires further
investigation. In this work, we use tools from information geometry to define a
notion of expressibility for quantum and classical models. The effective
dimension, which depends on the Fisher information, is used to prove a novel
generalisation bound and establish a robust measure of expressibility. We show
that quantum neural networks are able to achieve a significantly better
effective dimension than comparable classical neural networks. To then assess
the trainability of quantum models, we connect the Fisher information spectrum
to barren plateaus, the problem of vanishing gradients. Importantly, certain
quantum neural networks can show resilience to this phenomenon and train faster
than classical models due to their favourable optimisation landscapes, captured
by a more evenly spread Fisher information spectrum. Our work is the first to
demonstrate that well-designed quantum neural networks offer an advantage over
classical neural networks through a higher effective dimension and faster
training ability, which we verify on real quantum hardware.
- Abstract(参考訳): フォールトトレラントな量子コンピュータは、計算の高速化やモデルのスケーラビリティの向上を通じて、機械学習を劇的に改善する。
しかし、短期的には、量子機械学習の利点はそれほど明確ではない。
量子モデルおよび量子ニューラルネットワークの表現可能性と訓練性を理解する。
本研究では,情報幾何学のツールを用いて,量子モデルと古典モデルの表現可能性の概念を定義する。
フィッシャー情報に依存する実効次元は、新しい一般化境界を証明し、表現可能性の堅牢な尺度を確立するために用いられる。
量子ニューラルネットワークは、同等の古典的ニューラルネットワークよりもはるかに優れた次元を実現できることを示す。
次に、量子モデルのトレーサビリティを評価するために、フィッシャー情報スペクトルと不毛高原を接続し、勾配の消失問題を解く。
重要なことに、特定の量子ニューラルネットワークは、この現象に対するレジリエンスを示し、より均等に広がるフィッシャー情報スペクトルによって捉えられる、最適化された景色のために古典的なモデルよりも速く訓練することができる。
私たちの研究は、よく設計された量子ニューラルネットワークが、より効率的な次元とより高速なトレーニング能力を通じて、古典的なニューラルネットワークよりも有利であることを示す最初のものです。
関連論文リスト
- CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - Training-efficient density quantum machine learning [2.918930150557355]
量子機械学習は強力でフレキシブルで効率的にトレーニング可能なモデルを必要とする。
トレーニング可能なユニタリの集合にランダム化を組み込んだ学習モデルである密度量子ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-30T16:40:28Z) - A Quick Introduction to Quantum Machine Learning for Non-Practitioners [0.0]
この論文では、重ね合わせ、位相空間、絡み合いなど、基本的な量子力学の原理を取り上げている。
また、人工知能、勾配降下、バックプロパゲーションといった古典的なディープラーニングの概念もレビューしている。
量子ニューラルネットワークの潜在的な利点を例に挙げる。
論文 参考訳(メタデータ) (2024-02-22T16:48:17Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Quantum Neural Network for Quantum Neural Computing [0.0]
本稿では,量子ニューラルネットワークのための新しい量子ニューラルネットワークモデルを提案する。
我々のモデルは、状態空間のサイズがニューロンの数とともに指数関数的に大きくなるという問題を回避している。
我々は手書き文字認識や他の非線形分類タスクのモデルをベンチマークする。
論文 参考訳(メタデータ) (2023-05-15T11:16:47Z) - An Invitation to Distributed Quantum Neural Networks [0.0]
分散量子ニューラルネットワークにおける技術の現状を概観する。
量子データセットの分布は、量子モデルの分布よりも古典的な分布と類似性があることが分かる。
論文 参考訳(メタデータ) (2022-11-14T00:27:01Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z) - Quantum neural networks with deep residual learning [29.929891641757273]
本稿では,深層残留学習(resqnn)を用いた新しい量子ニューラルネットワークを提案する。
ResQNNは未知のユニタリを学び、驚くべきパフォーマンスを得ることができます。
論文 参考訳(メタデータ) (2020-12-14T18:11:07Z) - Quantum Deformed Neural Networks [83.71196337378022]
我々は,量子コンピュータ上で効率的に動作するように設計された新しい量子ニューラルネットワーク層を開発した。
入力状態の絡み合いに制限された場合、古典的なコンピュータでシミュレートすることができる。
論文 参考訳(メタデータ) (2020-10-21T09:46:12Z) - Experimental Quantum Generative Adversarial Networks for Image
Generation [93.06926114985761]
超伝導量子プロセッサを用いた実世界の手書き桁画像の学習と生成を実験的に行う。
我々の研究は、短期量子デバイス上での高度な量子生成モデル開発のためのガイダンスを提供する。
論文 参考訳(メタデータ) (2020-10-13T06:57:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。