論文の概要: Interpretable Quantum Advantage in Neural Sequence Learning
- arxiv url: http://arxiv.org/abs/2209.14353v1
- Date: Wed, 28 Sep 2022 18:34:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 19:28:34.069939
- Title: Interpretable Quantum Advantage in Neural Sequence Learning
- Title(参考訳): ニューラルシーケンス学習における解釈可能な量子長所
- Authors: Eric R. Anschuetz and Hong-Ye Hu and Jin-Long Huang and Xun Gao
- Abstract要約: 非ガウス測度を用いたガウス演算に基づくニューラルネットワーク列モデルと反復モデルとの相対表現力について検討した。
我々は、2つのモデルクラスの表現性において、無条件メモリ分離の源として量子テクスチュアリティ(quantum contextuality)を指摘する。
このようにして、我々の導入した量子モデルが、実際にさえも古典的モデルの状態を上回り得ることを実証する。
- 参考スコア(独自算出の注目度): 2.575030923243061
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum neural networks have been widely studied in recent years, given their
potential practical utility and recent results regarding their ability to
efficiently express certain classical data. However, analytic results to date
rely on assumptions and arguments from complexity theory. Due to this, there is
little intuition as to the source of the expressive power of quantum neural
networks or for which classes of classical data any advantage can be reasonably
expected to hold. Here, we study the relative expressive power between a broad
class of neural network sequence models and a class of recurrent models based
on Gaussian operations with non-Gaussian measurements. We explicitly show that
quantum contextuality is the source of an unconditional memory separation in
the expressivity of the two model classes. Additionally, as we are able to
pinpoint quantum contextuality as the source of this separation, we use this
intuition to study the relative performance of our introduced model on a
standard translation data set exhibiting linguistic contextuality. In doing so,
we demonstrate that our introduced quantum models are able to outperform state
of the art classical models even in practice.
- Abstract(参考訳): 量子ニューラルネットワークは、ある古典的データを効率的に表現できる能力に関する潜在的な実用性と最近の結果から、近年広く研究されている。
しかし、これまでの分析結果は複雑性理論からの仮定と議論に依存している。
このため、量子ニューラルネットワークの表現力の源泉や、古典的なデータのどのクラスに何らかの利点があるかを合理的に予測できるのかについては、直観はほとんどない。
本稿では,ガウス的でない測定値を用いたガウス的演算に基づくニューラルネットワーク列モデルと逐次的モデルとの相対表現力について検討する。
量子文脈性は2つのモデルクラスの表現性における無条件メモリ分離の源であることを示す。
さらに、この分離の源泉として量子的文脈性を特定することができるので、この直感を用いて、言語的文脈性を示す標準翻訳データセット上で導入したモデルの相対的性能を研究する。
このようにして、我々の導入した量子モデルが、実際にさえも古典的モデルの状態を上回り得ることを実証する。
関連論文リスト
- When can classical neural networks represent quantum states? [0.24749083496491683]
n-量子状態の単純古典表現では、指数関数的に多くの振幅を計算ベースで指定する必要がある。
過去の研究では、古典的なニューラルネットワークが、多くの物理的に関連する状態に対して、これらの振幅を簡潔に表現できることが示されている。
量子状態の測定分布に存在する条件付き相関が,それらのニューラル表現の性能を制御することを示す。
論文 参考訳(メタデータ) (2024-10-30T16:06:53Z) - Arbitrary Polynomial Separations in Trainable Quantum Machine Learning [1.0080317855851213]
量子機械学習の最近の理論的結果は、量子ニューラルネットワーク(QNN)の表現力とトレーニング可能性との一般的なトレードオフを示している。
ここでは、これらの否定的な結果を回避するために、非条件で証明可能なメモリ分離を示すQNNを効率的に訓練する階層を構築する。
量子文脈性(quantum contextuality)が表現性分離の源であることが示され、量子機械学習における現実的な優位性の存在が示唆された。
論文 参考訳(メタデータ) (2024-02-13T17:12:01Z) - Exponential Quantum Communication Advantage in Distributed Inference and Learning [19.827903766111987]
本稿では,量子ネットワーク上で分散計算を行うフレームワークを提案する。
このフレームワーク内のモデルでは、指数的に少ない通信で勾配勾配を用いた推論と訓練を行うことができることを示す。
また、このクラスのモデルが入力の高非線形特徴を符号化できることを示し、その表現性はモデル深度とともに指数関数的に増加することを示した。
論文 参考訳(メタデータ) (2023-10-11T02:19:50Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Generalization Metrics for Practical Quantum Advantage in Generative
Models [68.8204255655161]
生成モデリングは量子コンピュータにとって広く受け入れられている自然のユースケースである。
我々は,アルゴリズムの一般化性能を計測して,生成モデリングのための実用的な量子優位性を探索する,単純で曖昧な手法を構築した。
シミュレーションの結果、我々の量子にインスパイアされたモデルは、目に見えない、有効なサンプルを生成するのに、最大で68倍の費用がかかります。
論文 参考訳(メタデータ) (2022-01-21T16:35:35Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Quantum Self-Supervised Learning [22.953284192004034]
対照的自己監督学習のためのハイブリッド量子古典ニューラルネットワークアーキテクチャを提案する。
ibmq_paris量子コンピュータ上の見えない画像を分類するために、最良の量子モデルを適用します。
論文 参考訳(メタデータ) (2021-03-26T18:00:00Z) - Enhancing Generative Models via Quantum Correlations [1.6099403809839032]
確率分布から抽出したサンプルを用いた生成モデリングは教師なし機械学習の強力なアプローチである。
このような量子相関が生成モデリングの強力な資源となることを理論的に示す。
この分離を標準的な機械学習データセットで数値的にテストし、実用的な問題に耐えることを示します。
論文 参考訳(メタデータ) (2021-01-20T22:57:22Z) - Parsimonious neural networks learn interpretable physical laws [77.34726150561087]
本稿では、ニューラルネットワークと進化的最適化を組み合わせたパシモニクスニューラルネットワーク(PNN)を提案し、精度とパシモニクスのバランスをとるモデルを求める。
アプローチのパワーと汎用性は、古典力学のモデルを開発し、基本特性から材料の融解温度を予測することによって実証される。
論文 参考訳(メタデータ) (2020-05-08T16:15:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。