論文の概要: Adiabatic Encoding of Pre-trained MPS Classifiers into Quantum Circuits
- arxiv url: http://arxiv.org/abs/2504.09250v1
- Date: Sat, 12 Apr 2025 15:12:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:53:29.041834
- Title: Adiabatic Encoding of Pre-trained MPS Classifiers into Quantum Circuits
- Title(参考訳): 事前学習MPS分類器の量子回路への断熱符号化
- Authors: Keisuke Murota,
- Abstract要約: 本稿では,事前学習したMPS分類器をポストセレクション付き量子MPS回路に符号化し,性能を維持しながら徐々にポストセレクションを除去するフレームワークを提案する。
我々は、ある人工データセット上で、qMPS分類器をスクラッチから訓練することは、不規則な高原のために指数関数的に難しいことを証明しているが、我々の断熱符号化はこの問題を回避している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Although Quantum Neural Networks (QNNs) offer powerful methods for classification tasks, the training of QNNs faces two major training obstacles: barren plateaus and local minima. A promising solution is to first train a tensor-network (TN) model classically and then embed it into a QNN.\ However, embedding TN-classifiers into quantum circuits generally requires postselection whose success probability may decay exponentially with the system size. We propose an \emph{adiabatic encoding} framework that encodes pre-trained MPS-classifiers into quantum MPS (qMPS) circuits with postselection, and gradually removes the postselection while retaining performance. We prove that training qMPS-classifiers from scratch on a certain artificial dataset is exponentially hard due to barren plateaus, but our adiabatic encoding circumvents this issue. Additional numerical experiments on binary MNIST also confirm its robustness.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)は、分類タスクの強力な方法を提供するが、QNNのトレーニングは、不毛の台地と局所的なミニマという2つの主要なトレーニング障害に直面している。
有望な解決策は、まずテンソルネットワーク(TN)モデルを古典的にトレーニングし、それをQNNに組み込むことである。
しかし、TN分類器を量子回路に埋め込むには、一般に、成功確率がシステムサイズとともに指数関数的に低下するポストセレクションが必要である。
本稿では,事前学習したMPS分類器をポストセレクション付き量子MPS(qMPS)回路に符号化し,性能を維持しながら徐々にポストセレクションを除去する「emph{adiabatic encoding}」フレームワークを提案する。
我々は、ある人工データセット上で、qMPS分類器をスクラッチから訓練することは、不規則な高原のために指数関数的に難しいことを証明しているが、我々の断熱符号化はこの問題を回避している。
バイナリMNISTに関する追加の数値実験も、その堅牢性を確認している。
関連論文リスト
- Neural quantum embedding via deterministic quantum computation with one qubit [3.360317485898423]
1量子ビット(DQC1)を用いた決定論的量子計算に基づくニューラル量子埋め込み(NQE)手法を提案する。
NQEは、古典データの異なるカテゴリに対応する量子状態間のトレース距離を最大化するためにニューラルネットワークを訓練する。
我々は、NQE-DQC1プロトコルが拡張可能であることを示し、NQEトレーニングにNMRシステムを使用することを可能にした。
論文 参考訳(メタデータ) (2025-01-26T01:33:46Z) - Projected Stochastic Gradient Descent with Quantum Annealed Binary Gradients [51.82488018573326]
重み付きニューラルネットワークのトレーニングに適した,新しいレイヤワイドオプティマイザであるQP-SBGDを提案する。
BNNは、深層学習モデルの計算要求とエネルギー消費を最小限の精度で削減する。
提案アルゴリズムは階層的に実装されており,リソース制限量子ハードウェア上での大規模ネットワークのトレーニングに適している。
論文 参考訳(メタデータ) (2023-10-23T17:32:38Z) - A Post-Training Approach for Mitigating Overfitting in Quantum
Convolutional Neural Networks [0.24578723416255752]
量子畳み込みニューラルネットワーク(QCNN)におけるオーバーフィッティング軽減のためのポストトレーニング手法の検討
古典的なポストトレーニング手法であるニューロトン・ドロップアウトの量子設定への直接的な適応は、QCNNの成功確率を著しく低下させる。
我々は、この効果がQCNNにおける絡み合いの重要な役割と、QCNNの絡み合い損失に対する脆弱性を明らかにすることを論じる。
論文 参考訳(メタデータ) (2023-09-04T21:46:24Z) - Pre-training Tensor-Train Networks Facilitates Machine Learning with Variational Quantum Circuits [70.97518416003358]
変分量子回路(VQC)は、ノイズの多い中間スケール量子(NISQ)デバイス上での量子機械学習を約束する。
テンソルトレインネットワーク(TTN)はVQC表現と一般化を向上させることができるが、結果として得られるハイブリッドモデルであるTTN-VQCは、Polyak-Lojasiewicz(PL)条件による最適化の課題に直面している。
この課題を軽減するために,プレトレーニングTTNモデルとVQCを組み合わせたPre+TTN-VQCを導入する。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - Problem-Dependent Power of Quantum Neural Networks on Multi-Class
Classification [83.20479832949069]
量子ニューラルネットワーク(QNN)は物理世界を理解する上で重要なツールとなっているが、その利点と限界は完全には理解されていない。
本稿では,多クラス分類タスクにおけるQCの問題依存力について検討する。
我々の研究はQNNの課題依存力に光を当て、その潜在的なメリットを評価するための実践的なツールを提供する。
論文 参考訳(メタデータ) (2022-12-29T10:46:40Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - FV-Train: Quantum Convolutional Neural Network Training with a Finite
Number of Qubits by Extracting Diverse Features [12.261689483681145]
QCNNの畳み込みフィルタは、量子ベースのアンサッツを用いて固有の特徴を抽出するので、バレンプラトーを防ぐために有限個の量子ビットのみを使用するべきである。
有限個の量子ビットのみを使用しながら特徴抽出を最適化する新しいQCNNトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-19T02:53:33Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - Hybrid quantum-classical classifier based on tensor network and
variational quantum circuit [0.0]
本稿では、量子インスパイアされたテンソルネットワーク(TN)と変分量子回路(VQC)を組み合わせて教師付き学習タスクを行うハイブリッドモデルを提案する。
低結合次元の行列積状態に基づくTNは、MNISTデータセットのバイナリ分類において、VQCの入力のためのデータを圧縮する特徴抽出器としてPCAよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-30T09:43:59Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。