論文の概要: Taming Score-Based Denoisers in ADMM: A Convergent Plug-and-Play Framework
- arxiv url: http://arxiv.org/abs/2603.10281v1
- Date: Tue, 10 Mar 2026 23:55:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.724049
- Title: Taming Score-Based Denoisers in ADMM: A Convergent Plug-and-Play Framework
- Title(参考訳): ADMMにおけるスコアベースデノイザの活用 - 収束的なプラグイン・アンド・プレイフレームワーク
- Authors: Rajesh Shrestha, Xiao Fu,
- Abstract要約: 我々はADMMに3段階のデノイザを組み込むADMMプラグイン・アンド・プレイ(ADMM)を開発した。
幅広い逆問題に対する実験により,本手法は多様なベースライン解に対して常に品質を向上することを示した。
- 参考スコア(独自算出の注目度): 8.895254408079316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While score-based generative models have emerged as powerful priors for solving inverse problems, directly integrating them into optimization algorithms such as ADMM remains nontrivial. Two central challenges arise: i) the mismatch between the noisy data manifolds used to train the score functions and the geometry of ADMM iterates, especially due to the influence of dual variables, and ii) the lack of convergence understanding when ADMM is equipped with score-based denoisers. To address the manifold mismatch issue, we propose ADMM plug-and-play (ADMM-PnP) with the AC-DC denoiser, a new framework that embeds a three-stage denoiser into ADMM: (1) auto-correction (AC) via additive Gaussian noise, (2) directional correction (DC) using conditional Langevin dynamics, and (3) score-based denoising. In terms of convergence, we establish two results: first, under proper denoiser parameters, each ADMM iteration is a weakly nonexpansive operator, ensuring high-probability fixed-point $\textit{ball convergence}$ using a constant step size; second, under more relaxed conditions, the AC-DC denoiser is a bounded denoiser, which leads to convergence under an adaptive step size schedule. Experiments on a range of inverse problems demonstrate that our method consistently improves solution quality over a variety of baselines.
- Abstract(参考訳): スコアベースの生成モデルは、逆問題を解決するための強力な先行候補として現れてきたが、ADMMのような最適化アルゴリズムに直接組み込むことは、依然として容易ではない。
主な課題は2つある。
一 スコア関数の訓練に使用する雑音データ多様体とADMMの形状とのミスマッチ、特に二重変数の影響により、
二 ADMMにスコアベースのデノイザが備わっているときの収束理解の欠如
多様体ミスマッチ問題に対処するため,AC-DCデノイザを用いたADMMプラグイン・アンド・プレイ(ADMM-PnP)を提案する。
まず、適切なデノイザパラメータの下では、各ADMM繰り返しは弱い非拡張演算子であり、高い確率の固定点$\textit{ball convergence}$を一定のステップサイズで保証し、さらに、より緩和された条件下では、AC-DCデノイザは有界デノイザであり、適応的なステップサイズスケジュールの下で収束する。
逆問題に対する実験により,本手法は様々なベースラインの解品質を一貫して改善することを示した。
関連論文リスト
- Test-time Adaptive Hierarchical Co-enhanced Denoising Network for Reliable Multimodal Classification [55.56234913868664]
マルチモーダルデータを用いた信頼性学習のためのTAHCD(Test-time Adaptive Hierarchical Co-enhanced Denoising Network)を提案する。
提案手法は,最先端の信頼性の高いマルチモーダル学習手法と比較して,優れた分類性能,堅牢性,一般化を実現する。
論文 参考訳(メタデータ) (2026-01-12T03:14:12Z) - CoCoA Is ADMM: Unifying Two Paradigms in Distributed Optimization [6.743429869405684]
分散環境での一般的な経験的リスク最小化問題に対する原始双対アルゴリズムについて考察する。
アルゴリズムの両クラスは、原始変数と双対変数のみを含む統一された更新形式に変換可能であることを示す。
論文 参考訳(メタデータ) (2025-02-01T15:56:11Z) - Decoupling Training-Free Guided Diffusion by ADMM [17.425995507142467]
非条件生成モデルと誘導損失関数を明確に分離する新しいフレームワークを提案する。
そこで我々は,これらの成分を適応的にバランスをとるために,alternating Direction Method of Multipliers (ADMM) に基づく新しいアルゴリズムを開発した。
実験の結果,提案手法は高品質なサンプルを連続的に生成することがわかった。
論文 参考訳(メタデータ) (2024-11-18T23:05:54Z) - Meta-Learning Adversarial Bandit Algorithms [55.72892209124227]
我々は,バンディットフィードバックを用いたオンラインメタラーニングについて研究する。
我々は自己協和障壁正規化器を用いてオンラインミラー降下一般化(OMD)をチューニングすることを学ぶ。
論文 参考訳(メタデータ) (2023-07-05T13:52:10Z) - A Convergent ADMM Framework for Efficient Neural Network Training [17.764095204676973]
乗算器の交互方向法(ADMM)は多くの分類と回帰の応用において大きな成功を収めた。
本稿では,ADMM (dlADMM) を用いてニューラルネットワークの一般的なトレーニング問題を同時に解くための新しい枠組みを提案する。
提案したdlADMMアルゴリズムの収束, 効率, 有効性を示す7つのベンチマークデータセットの実験を行った。
論文 参考訳(メタデータ) (2021-12-22T01:55:24Z) - Preconditioned Plug-and-Play ADMM with Locally Adjustable Denoiser for
Image Restoration [54.23646128082018]
非定常雑音分散のパラメータ化が可能なデノイザを使用するために、プラグアンドプレイの最適化の概念を拡張した。
画素調整可能なデノイザは,適切なプレコンディショニング戦略とともに,いくつかのアプリケーションに対して,プラグアンドプレイADMMアプローチをさらに改善できることを示す。
論文 参考訳(メタデータ) (2021-10-01T15:46:35Z) - A Framework of Inertial Alternating Direction Method of Multipliers for
Non-Convex Non-Smooth Optimization [17.553531291690025]
非平滑なマルチブロック複合問題のクラスを解くために,iADMM(iADMM)と呼ばれるアルゴリズムフレームワークを提案する。
本フレームワークでは,従来のADMMスキームの収束解析を統一するために,変数の各ブロックを更新するために,ジェネラル・メイジャー・サロゲート化(MM)原理を用いる。
論文 参考訳(メタデータ) (2021-02-10T13:55:28Z) - ADAHESSIAN: An Adaptive Second Order Optimizer for Machine Learning [91.13797346047984]
本稿では,2次最適化アルゴリズムであるADAHESSIANを紹介する。
ADAHESSIANは、他の適応最適化手法と比較して、新しい最先端の成果を大きなマージンで達成することを示す。
論文 参考訳(メタデータ) (2020-06-01T05:00:51Z) - Compositional ADAM: An Adaptive Compositional Solver [69.31447856853833]
C-ADAMは、期待値の非線形機能ネストを含む構成問題に対する最初の適応的解法である。
C-ADAM は $mathcalO(delta-2.25)$ の定常点に収束し、$delta$ は精度パラメータであることを示す。
論文 参考訳(メタデータ) (2020-02-10T14:00:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。