論文の概要: Generalization in Quantum Machine Learning: a Quantum Information
Perspective
- arxiv url: http://arxiv.org/abs/2102.08991v1
- Date: Wed, 17 Feb 2021 19:35:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 14:26:44.144238
- Title: Generalization in Quantum Machine Learning: a Quantum Information
Perspective
- Title(参考訳): 量子機械学習における一般化:量子情報の観点から
- Authors: Leonardo Banchi, Jason Pereira, Stefano Pirandola
- Abstract要約: q$の異なる特性が分類の正確性と一般化にどのように影響するかを示す。
我々は、精度と一般化の間の様々なトレードオフを探索できる、Information Bottleneckの原理の量子バージョンを導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the machine learning problem of generalization when quantum
operations are used to classify either classical data or quantum channels,
where in both cases the task is to learn from data how to assign a certain
class $c$ to inputs $x$ via measurements on a quantum state $\rho(x)$. A
trained quantum model generalizes when it is able to predict the correct class
for previously unseen data. We show that the accuracy and generalization
capability of quantum classifiers depend on the (R\'enyi) mutual informations
$I(C{:}Q)$ and $I_2(X{:}Q)$ between the quantum embedding $Q$ and the classical
input space $X$ or class space $C$. Based on the above characterization, we
then show how different properties of $Q$ affect classification accuracy and
generalization, such as the dimension of the Hilbert space, the amount of
noise, and the amount of neglected information via, e.g., pooling layers.
Moreover, we introduce a quantum version of the Information Bottleneck
principle that allows us to explore the various tradeoffs between accuracy and
generalization.
- Abstract(参考訳): 量子演算が古典データか量子チャネルのいずれかを分類するために使用されるとき、一般化の機械学習の問題を研究し、両方の場合において、特定のクラス$c$を量子状態上の測定値$\rho(x)$を介して入力に$x$を割り当てる方法を学ぶ。
訓練された量子モデルは、以前に見えないデータの正しいクラスを予測できるときに一般化します。
量子分類器の精度と一般化能力は、量子埋め込み$Q$と古典的な入力空間$X$またはクラス空間$C$の間の(R\'enyi)相互情報$I(C{:}Q)$と$I_2(X{:}Q)$に依存することを示す。
上記の特徴に基づいて, ヒルベルト空間の次元, ノイズ量, 無視された情報量, 例えば, プール層などといった分類精度と一般化に, $q$ の異なる性質がどのように影響するかを示す。
さらに、精度と一般化の間のさまざまなトレードオフを調べることができる情報ボトルネック原理の量子バージョンを紹介します。
関連論文リスト
- Extending Quantum Perceptrons: Rydberg Devices, Multi-Class Classification, and Error Tolerance [67.77677387243135]
量子ニューロモーフィックコンピューティング(QNC)は、量子計算とニューラルネットワークを融合して、量子機械学習(QML)のためのスケーラブルで耐雑音性のあるアルゴリズムを作成する
QNCの中核は量子パーセプトロン(QP)であり、相互作用する量子ビットのアナログダイナミクスを利用して普遍的な量子計算を可能にする。
論文 参考訳(メタデータ) (2024-11-13T23:56:20Z) - Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Information-theoretic generalization bounds for learning from quantum data [5.0739329301140845]
古典量子データに基づくトレーニングにより量子学習を記述するための数学的定式化を提案する。
我々は,古典的および量子的情報理論量の観点から,量子学習者の期待する一般化誤差を証明した。
我々の研究は、量子学習に関する量子情報理論的な視点を統一するための基礎を築いた。
論文 参考訳(メタデータ) (2023-11-09T17:21:38Z) - Maximal Information Leakage from Quantum Encoding of Classical Data [9.244521717083696]
敵は古典的なデータを符号化する量子システムの状態の1つのコピーにアクセスすることができる。
情報漏洩の結果として得られる尺度は、古典データの関数を正確に推測する確率の乗法的増加である。
論文 参考訳(メタデータ) (2023-07-24T05:16:02Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Theory of Quantum Generative Learning Models with Maximum Mean
Discrepancy [67.02951777522547]
量子回路ボルンマシン(QCBM)と量子生成逆ネットワーク(QGAN)の学習可能性について検討する。
まず、QCBMの一般化能力を解析し、量子デバイスがターゲット分布に直接アクセスできる際の優位性を同定する。
次に、QGANの一般化誤差境界が、採用されるAnsatz、クォーディットの数、入力状態に依存することを示す。
論文 参考訳(メタデータ) (2022-05-10T08:05:59Z) - Noisy Quantum Kernel Machines [58.09028887465797]
量子学習マシンの新たなクラスは、量子カーネルのパラダイムに基づくものである。
消散と脱コヒーレンスがパフォーマンスに与える影響について検討する。
量子カーネルマシンでは,デコヒーレンスや散逸を暗黙の正規化とみなすことができる。
論文 参考訳(メタデータ) (2022-04-26T09:52:02Z) - Generalization in quantum machine learning from few training data [4.325561431427748]
現代の量子機械学習(QML)手法は、トレーニングデータセット上でパラメータ化された量子回路を変動的に最適化する。
トレーニング可能なゲートを最低で$sqrtT/N$とする量子機械学習モデルの一般化誤差を示す。
また、量子畳み込みニューラルネットワークによる相転移における量子状態の分類には、非常に小さなトレーニングデータセットが必要であることも示している。
論文 参考訳(メタデータ) (2021-11-09T17:49:46Z) - Information-theoretic bounds on quantum advantage in machine learning [6.488575826304023]
物理実験結果の予測における古典的および量子機械学習(ML)モデルの性能について検討する。
任意の入力分布 $mathcalD(x)$ に対して、古典的な ML モデルは、最適量子 ML モデルに匹敵する回数 $mathcalE$ にアクセスすることで、平均で正確な予測を提供することができる。
論文 参考訳(メタデータ) (2021-01-07T10:10:09Z) - Quantum Gram-Schmidt Processes and Their Application to Efficient State
Read-out for Quantum Algorithms [87.04438831673063]
本稿では、生成した状態の古典的ベクトル形式を生成する効率的な読み出しプロトコルを提案する。
我々のプロトコルは、出力状態が入力行列の行空間にある場合に適合する。
我々の技術ツールの1つは、Gram-Schmidt正則手順を実行するための効率的な量子アルゴリズムである。
論文 参考訳(メタデータ) (2020-04-14T11:05:26Z) - Quantum embeddings for machine learning [5.16230883032882]
量子分類器は、機械学習モデルとして使用されるトレーニング可能な量子回路である。
我々は、ヒルベルト空間におけるデータクラスを最大限に分離することを目的として、回路の最初の部分(埋め込み)を訓練することを提案する。
このアプローチは量子機械学習のための強力な分析フレームワークを提供する。
論文 参考訳(メタデータ) (2020-01-10T19:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。