論文の概要: WSBD: Freezing-Based Optimizer for Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2602.11383v1
- Date: Wed, 11 Feb 2026 21:23:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.545673
- Title: WSBD: Freezing-Based Optimizer for Quantum Neural Networks
- Title(参考訳): WSBD: 量子ニューラルネットワークの凍結に基づく最適化
- Authors: Christopher Kverne, Mayur Akewar, Yuqian Huo, Tirthak Patel, Janki Bhimani,
- Abstract要約: 量子ニューラルネットワーク(QNN)をトレーニングするための新しい戦略として、重み付きブロックDescent (WSBD) がある。
WSBDは、勾配由来の重要度スコアに基づいて、影響の小さいパラメータを特定し、一時的に凍結することによって、計算資源に焦点を当てる。
評価の結果,一般の地中エネルギー問題において,WSBDはAdamよりも平均63.9%の速度で収束していることがわかった。
- 参考スコア(独自算出の注目度): 2.9941058796791076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The training of Quantum Neural Networks (QNNs) is hindered by the high computational cost of gradient estimation and the barren plateau problem, where optimization landscapes become intractably flat. To address these challenges, we introduce Weighted Stochastic Block Descent (WSBD), a novel optimizer with a dynamic, parameter-wise freezing strategy. WSBD intelligently focuses computational resources by identifying and temporarily freezing less influential parameters based on a gradient-derived importance score. This approach significantly reduces the number of forward passes required per training step and helps navigate the optimization landscape more effectively. Unlike pruning or layer-wise freezing, WSBD maintains full expressive capacity while adapting throughout training. Our extensive evaluation shows that WSBD converges on average 63.9% faster than Adam for the popular ground-state-energy problem, an advantage that grows with QNN size. We provide a formal convergence proof for WSBD and show that parameter-wise freezing outperforms traditional layer-wise approaches in QNNs. Project page: https://github.com/Damrl-lab/WSBD-Stochastic-Freezing-Optimizer.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)のトレーニングは、勾配推定の計算コストが高いことと、最適化ランドスケープが難解に平坦になる不毛な高原問題によって妨げられている。
これらの課題に対処するために,動的にパラメータワイドな凍結戦略を持つ新しい最適化手法であるWeighted Stochastic Block Descent (WSBD)を導入する。
WSBDは、勾配由来の重要度スコアに基づいて、影響の少ないパラメータを特定し、一時的に凍結することで、計算資源をインテリジェントに焦点を合わせる。
このアプローチは、トレーニングステップ毎に必要となるフォワードパスの数を大幅に削減し、最適化ランドスケープをより効率的にナビゲートするのに役立つ。
プルーニングやレイヤーワイズとは異なり、WSBDはトレーニング全体を通して適応しながら、完全な表現能力を維持している。
広範に評価した結果,WSBD は Adam よりも平均 63.9% の速度で収束していることがわかった。
本稿では,WSBD に対する公式収束証明を行い,パラメータワイズによる QNN における従来のレイヤワイズ手法よりも優れた性能を示すことを示す。
プロジェクトページ: https://github.com/Damrl-lab/WSBD-Stochastic-Freezing-Optimizer
関連論文リスト
- Efficient Training of Spiking Neural Networks by Spike-aware Data Pruning [32.150650007816516]
スパイキングニューラルネットワーク(SNN)は、モデルとデータセットのスケーリングを通じて急速に進歩している。
データプルーニングは、最も有益な例を保持し、冗長な例を捨てることで、トレーニングを加速するための有望な戦略である。
本稿では,これらの課題に対処する新しいスパイク対応データプルーニング法を提案する。
論文 参考訳(メタデータ) (2025-10-05T08:50:28Z) - Towards Efficient and Accurate Spiking Neural Networks via Adaptive Bit Allocation [29.8570333986314]
マルチビットスパイクニューラルネットワーク(SNN)は最近、エネルギー効率と高精度なAIを追求する熱い研究スポットになっている。
本稿では,直接学習したSNNに対して,メモリと計算資源の微粒な層配置を実現するための適応ビット割り当て戦略を提案する。
具体的には、重みとスパイクの時間長とビット幅をパラメータ化し、勾配を通して学習し制御できるようにする。
論文 参考訳(メタデータ) (2025-06-30T10:45:16Z) - Kinetics: Rethinking Test-Time Scaling Laws [18.325591438335007]
Kinetics Scaling Lawは、テストタイムの計算が、より小さなしきい値以上のモデルで使用される場合、より効果的であることを示唆している。
そこで本研究では,スパークアテンションに着目した新しいスケーリングパラダイムを提案し,コストを削減し,より長い世代とより並列なサンプルを実現する。
論文 参考訳(メタデータ) (2025-06-05T17:59:24Z) - Decentralized Nonconvex Composite Federated Learning with Gradient Tracking and Momentum [78.27945336558987]
分散サーバ(DFL)はクライアント・クライアント・アーキテクチャへの依存をなくす。
非滑らかな正規化はしばしば機械学習タスクに組み込まれる。
本稿では,これらの問題を解決する新しいDNCFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T08:32:25Z) - LESA: Learnable LLM Layer Scaling-Up [57.0510934286449]
LLM(Large Language Models)をスクラッチからトレーニングするには膨大な計算資源が必要であるため、非常に高価である。
モデルスケーリングアップは、より小さなモデルのパラメータを活用してより大きなモデルを作成することで、有望なソリューションを提供する。
深度スケールアップのための新しい学習方法である textbfLESA を提案する。
論文 参考訳(メタデータ) (2025-02-19T14:58:48Z) - An Efficient Sparse Fine-Tuning with Low Quantization Error via Neural Network Pruning [9.208007322096535]
ニューラルネットワークプルーニングのアイデアに基づく新しいSpFTフレームワークを開発した。
提案手法は,LoRAの変種のような最先端手法の精度に適合しながら,SpFTのメモリ効率を20~50%向上することを示す。
論文 参考訳(メタデータ) (2025-02-17T04:54:42Z) - Optimizing the Optimizer for Physics-Informed Neural Networks and Kolmogorov-Arnold Networks [3.758814046658822]
物理情報ニューラルネットワーク(PINN)は、部分マグニチュード方程式(PDE)をニューラルネットワークのトレーニングプロセスにソフト制約として統合することにより、計算PDEソリューションに革命をもたらした。
さらに、物理インフォームドネットワーク(PIKAN)も有効であり、精度も同等である。
論文 参考訳(メタデータ) (2025-01-22T21:19:42Z) - MARS: Unleashing the Power of Variance Reduction for Training Large Models [56.67982828148859]
深層ニューラルネットワークのための統合トレーニングフレームワークを提案する。
我々は,事前条件付き勾配最適化を利用するMARSの3つの例を紹介する。
その結果,MARSの実装はAdamより一貫して優れていた。
論文 参考訳(メタデータ) (2024-11-15T18:57:39Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Deep Equilibrium Optical Flow Estimation [80.80992684796566]
最近のSOTA(State-of-the-art)光フローモデルでは、従来のアルゴリズムをエミュレートするために有限ステップの更新操作を使用する。
これらのRNNは大きな計算とメモリオーバーヘッドを課し、そのような安定した推定をモデル化するために直接訓練されていない。
暗黙的層の無限レベル固定点として直接流れを解く手法として,Deep equilibrium Flow estimatorを提案する。
論文 参考訳(メタデータ) (2022-04-18T17:53:44Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Large Batch Training Does Not Need Warmup [111.07680619360528]
大きなバッチサイズを使用してディープニューラルネットワークをトレーニングすることは、有望な結果を示し、多くの現実世界のアプリケーションに利益をもたらしている。
本稿では,大規模バッチ学習のための全層適応レートスケーリング(CLARS)アルゴリズムを提案する。
分析に基づいて,このギャップを埋め,3つの一般的な大規模バッチトレーニング手法の理論的洞察を提示する。
論文 参考訳(メタデータ) (2020-02-04T23:03:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。