論文の概要: Quantum Surrogate-Driven Image Classifier: A Gradient-Free Approach to Avoid Barren Plateaus
- arxiv url: http://arxiv.org/abs/2505.05249v1
- Date: Thu, 08 May 2025 13:51:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.906615
- Title: Quantum Surrogate-Driven Image Classifier: A Gradient-Free Approach to Avoid Barren Plateaus
- Title(参考訳): 量子サロゲート駆動画像分類器:バレンプラトーズ回避のためのグラディエントフリーアプローチ
- Authors: Yichen Xie,
- Abstract要約: 画像分類のための深部量子ニューラルネットワーク(QNN)の訓練は、純ユニタリ回路における勾配(バレンプラトー)と限られた非線形性のため、非常に難しい。
そこで本研究では,非一様性を引き出すために,中間回路測定とアシラリー量子ビットのリセットを併用した勾配フリーサロゲート駆動型フレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.825061375565821
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training deep quantum neural networks (QNNs) for image classification is notoriously difficult due to vanishing gradients (barren plateaus) and limited nonlinearity in purely unitary circuits. We propose a novel gradient-free surrogate-driven framework combined with mid-circuit measurement and reset of ancillary qubits to induce effective nonunitarity. Our approach uses a classical neural surrogate to predict measurement outcomes from circuit parameters to avoid direct gradients. Theoretical results prove that bypassing quantum gradients mitigates plateau issues. Experiments on MNIST, CIFAR-10, and CIFAR-100 with 15-qubit, 6-layer circuits using four resettable ancillas demonstrate superior accuracy compared to direct-gradient QNNs and classical baselines. Our method also serves as a potential for a generalized training framework applicable to various QNN architectures beyond image classification.
- Abstract(参考訳): 画像分類のための深部量子ニューラルネットワーク(QNN)の訓練は、純ユニタリ回路における勾配(バレンプラトー)と限られた非線形性のため、非常に難しい。
そこで本研究では,非ユニタリ性を実現するために,中間回路計測とアシラリー量子ビットのリセットを併用した新しい勾配フリーサロゲート駆動フレームワークを提案する。
提案手法では,回路パラメータの測定結果の予測に古典的ニューラルネットワークを用いて直接勾配を回避している。
理論的には、量子勾配をバイパスすることはプラトー問題を緩和する。
MNIST, CIFAR-10, CIFAR-100の4つのリセット可能なアンシラを用いた15量子6層回路による実験は、直進的なQNNや古典的なベースラインに比べて精度が優れている。
また,本手法は,画像分類以外の様々なQNNアーキテクチャに適用可能な,汎用的なトレーニングフレームワークの可能性を秘めている。
関連論文リスト
- Tight and Efficient Gradient Bounds for Parameterized Quantum Circuits [7.0379869298557844]
パラメータ化モデルのトレーニングは、下層の損失関数のランドスケープに大きく依存する。
これらの境界は, 損失そのものの分散とともに, VQAモデルの損失景観を研究するために, 効率よく, 古典的に逆向きに推定できることが示される。
この洞察は、局所的およびグローバル的用語からなる観測可能なVQAとして再構成できる生成モデルであるハイブリッド量子生成広告ネットワーク(qGANs)に直接的な意味を持つ。
論文 参考訳(メタデータ) (2023-09-22T07:38:13Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - MetaGrad: Adaptive Gradient Quantization with Hypernetworks [46.55625589293897]
量子化対応トレーニング(QAT)は、ニューラルネットワークのトレーニングと推論の間、前方通過を加速する。
本稿では,ハイパーネットワークを用いた次のトレーニングの計算グラフに勾配を組み込むことで,この問題を解決することを提案する。
CNNネットワークアーキテクチャの異なるCIFAR-10データセットに対する様々な実験により、我々のハイパーネットワークに基づくアプローチは、勾配量子化ノイズの負の効果を効果的に低減できることを示した。
論文 参考訳(メタデータ) (2023-03-04T07:26:34Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Toward Trainability of Deep Quantum Neural Networks [87.04438831673063]
ランダムな構造を持つ量子ニューラルネットワーク(QNN)は、回路深さと量子ビット数が増加するにつれて指数関数的に減少する勾配のため、トレーニング性に乏しい。
理論的保証のある深部QNNに対して、消滅する勾配問題に対する最初の実現可能な解決策を提供する。
論文 参考訳(メタデータ) (2021-12-30T10:27:08Z) - Learning Quantized Neural Nets by Coarse Gradient Method for Non-linear
Classification [3.158346511479111]
特定の単調性を持つSTEのクラスを提案し、量子化されたアクティベーション関数を持つ2層ネットワークのトレーニングへの応用について検討する。
提案したSTEに対して,対応する粗度勾配法が大域最小値に収束することを示し,性能保証を確立する。
論文 参考訳(メタデータ) (2020-11-23T07:50:09Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - A Statistical Framework for Low-bitwidth Training of Deep Neural
Networks [70.77754244060384]
フル量子化トレーニング(FQT)は、ニューラルネットワークモデルのアクティベーション、重み、勾配を定量化することで、低ビット幅のハードウェアを使用する。
FQTの最大の課題は、特に勾配量子化が収束特性にどのように影響するかという理論的な理解の欠如である。
論文 参考訳(メタデータ) (2020-10-27T13:57:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。