論文の概要: Efficient quantum machine learning with inverse-probability algebraic corrections
- arxiv url: http://arxiv.org/abs/2601.16665v1
- Date: Fri, 23 Jan 2026 11:28:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.663251
- Title: Efficient quantum machine learning with inverse-probability algebraic corrections
- Title(参考訳): 逆確率代数的補正を用いた効率的な量子機械学習
- Authors: Jaemin Seo,
- Abstract要約: 量子ニューラルネットワーク(QNN)は、量子重畳と絡み合いを利用して表現力のある確率モデルを提供する。
量子ニューラルネットワーク(QNN)は、量子重畳と絡み合いを利用して表現力のある確率モデルを提供する。
既存のトレーニングアプローチは、主に勾配に基づく手続き最適化に依存している。
- 参考スコア(独自算出の注目度): 2.7412662946127764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum neural networks (QNNs) provide expressive probabilistic models by leveraging quantum superposition and entanglement, yet their practical training remains challenging due to highly oscillatory loss landscapes and noise inherent to near-term quantum devices. Existing training approaches largely rely on gradient-based procedural optimization, which often suffers from slow convergence, sensitivity to hyperparameters, and instability near sharp minima. In this work, we propose an alternative inverse-probability algebraic learning framework for QNNs. Instead of updating parameters through incremental gradient descent, our method treats learning as a local inverse problem in probability space, directly mapping discrepancies between predicted and target Born-rule probabilities to parameter corrections via a pseudo-inverse of the Jacobian. This algebraic update is covariant, does not require learning-rate tuning, and enables rapid movement toward the vicinity of a loss minimum in a single step. We systematically compare the proposed method with gradient descent and Adam optimization in both regression and classification tasks using a teacher-student QNN benchmark. Our results show that algebraic learning converges significantly faster, escapes loss plateaus, and achieves lower final errors. Under finite-shot sampling, the method exhibits near-optimal error scaling, while remaining robust against intrinsic hardware noise such as dephasing. These findings suggest that inverse-probability algebraic learning offers a principled and practical alternative to procedural optimization for QNN training, particularly in resource-constrained near-term quantum devices.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)は、量子重畳と絡み合いを利用して、表現力のある確率モデルを提供するが、その実践的訓練は、高振動損失の風景と、近未来の量子デバイスに固有のノイズのために難しいままである。
既存のトレーニングアプローチは、勾配に基づく手続き最適化に大きく依存しており、しばしば緩やかな収束、ハイパーパラメータへの感度、鋭い最小値付近の不安定性に悩まされる。
そこで本研究では,QNNのための逆確率代数学習フレームワークを提案する。
本研究では,確率空間における局所的逆問題として,パラメータを漸進勾配勾配で更新する代わりに,予測値と対象値との差を直接,ヤコビアンの擬似逆数によるパラメータ補正にマッピングする。
この代数的更新は共変であり、学習速度チューニングを必要としない。
教師学生のQNNベンチマークを用いて、回帰と分類の両方のタスクにおいて、提案手法と勾配降下とアダム最適化を体系的に比較した。
この結果から,代数学習はより高速に収束し,損失高原を回避し,最終誤差を低減できることがわかった。
有限ショットサンプリングでは、デフォーカスのような本質的なハードウェアノイズに対して頑健でありながら、ほぼ最適誤差のスケーリングを示す。
これらの結果は,QNNトレーニング,特に資源制約された短期量子デバイスにおいて,逆確率代数学習は手続き的最適化の原則的および実践的な代替手段を提供することを示している。
関連論文リスト
- Escaping Barren Plateaus in Variational Quantum Algorithms Using Negative Learning Rate in Quantum Internet of Things [8.98664000532717]
変分量子アルゴリズム(VQA)は、次世代量子コンピュータの主要な計算プリミティブになりつつある。
デバイスに制約のある実行条件下では、学習のスケーラビリティは不規則な台地によって著しく制限される。
最適化プロセスに負の学習率を含めることで,不毛高原を脱出する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-11-28T03:32:33Z) - An Evolutionary Multi-objective Optimization for Replica-Exchange-based Physics-informed Operator Learning Network [7.1950116347185995]
本稿では,レプリカに基づく物理インフォームド演算子学習ネットワークのための進化的多目的最適化を提案する。
我々のフレームワークは、精度、ノイズ、不確実性を定量化する能力において、一般的な演算子学習方法よりも一貫して優れています。
論文 参考訳(メタデータ) (2025-08-31T02:17:59Z) - Progressive Element-wise Gradient Estimation for Neural Network Quantization [2.1413624861650358]
量子化アウェアトレーニング(QAT)法は、離散化関数の非微分可能性に対処するためにSTE(Straight-Through Estimator)に依存する。
本稿では,連続値と量子化値の離散化誤差に対処するため,PEGE(Progressive Element-wise Gradient Estimation)を提案する。
PEGEは、既存のバックプロパゲーション手法を一貫して上回り、低精度のモデルが彼らの完全精度の精度にマッチしたり、さらに上回ったりすることを可能にしている。
論文 参考訳(メタデータ) (2025-08-27T15:59:36Z) - Decentralized Nonconvex Composite Federated Learning with Gradient Tracking and Momentum [78.27945336558987]
分散サーバ(DFL)はクライアント・クライアント・アーキテクチャへの依存をなくす。
非滑らかな正規化はしばしば機械学習タスクに組み込まれる。
本稿では,これらの問題を解決する新しいDNCFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T08:32:25Z) - A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Learning rate adaptive stochastic gradient descent optimization methods: numerical simulations for deep learning methods for partial differential equations and convergence analyses [5.052293146674794]
標準降下(SGD)最適化法は、学習率が0に収束しない場合、アダムのような加速および適応SGD最適化法が収束しないことが知られている。
本研究では,経験的推定に基づいて学習率を調整するSGD最適化手法の学習速度適応手法を提案し,検討する。
論文 参考訳(メタデータ) (2024-06-20T14:07:39Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Fast Distributionally Robust Learning with Variance Reduced Min-Max
Optimization [85.84019017587477]
分散的ロバストな教師付き学習は、現実世界のアプリケーションのための信頼性の高い機械学習システムを構築するための重要なパラダイムとして登場している。
Wasserstein DRSLを解くための既存のアルゴリズムは、複雑なサブプロブレムを解くか、勾配を利用するのに失敗する。
我々はmin-max最適化のレンズを通してwaserstein drslを再検討し、スケーラブルで効率的に実装可能な超勾配アルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-04-27T16:56:09Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。