論文の概要: POLARIS: Projection-Orthogonal Least Squares for Robust and Adaptive Inversion in Diffusion Models
- arxiv url: http://arxiv.org/abs/2512.00369v1
- Date: Sat, 29 Nov 2025 07:35:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.200606
- Title: POLARIS: Projection-Orthogonal Least Squares for Robust and Adaptive Inversion in Diffusion Models
- Title(参考訳): POLARIS:拡散モデルにおけるロバストおよび適応反転のための射影直交最小角形
- Authors: Wenshuo Chen, Haosen Li, Shaofeng Liang, Lei Wang, Haozhe Jia, Kaishen Yuan, Jieming Wu, Bowen Tian, Yutao Yue,
- Abstract要約: Inversion-Denoising Paradigmは拡散モデルに基づく多彩な画像編集と復元作業に優れる。
我々は、その機構を再検討し、復元劣化の重大な要因である、近似ノイズ誤差を明らかにする。
本稿では, 誤差補償問題から誤り補償問題への逆変換を再構成する, ロバスト・アダプティブ・インバージョンのための射影直交最小広場(POLARIS)について紹介する。
- 参考スコア(独自算出の注目度): 9.779983925649857
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The Inversion-Denoising Paradigm, which is based on diffusion models, excels in diverse image editing and restoration tasks. We revisit its mechanism and reveal a critical, overlooked factor in reconstruction degradation: the approximate noise error. This error stems from approximating the noise at step t with the prediction at step t-1, resulting in severe error accumulation throughout the inversion process. We introduce Projection-Orthogonal Least Squares for Robust and Adaptive Inversion (POLARIS), which reformulates inversion from an error-compensation problem into an error-origin problem. Rather than optimizing embeddings or latent codes to offset accumulated drift, POLARIS treats the guidance scale ω as a step-wise variable and derives a mathematically grounded formula to minimize inversion error at each step. Remarkably, POLARIS improves inversion latent quality with just one line of code. With negligible performance overhead, it substantially mitigates noise approximation errors and consistently improves the accuracy of downstream tasks.
- Abstract(参考訳): 拡散モデルに基づくInversion-Denoising Paradigmは、多様な画像編集および復元タスクに優れる。
我々は、その機構を再検討し、復元劣化の重大な要因である、近似ノイズ誤差を明らかにする。
この誤差は、ステップt-1での予測とステップtにおけるノイズを近似することに由来する。
本稿では, 誤差補償問題から誤り補償問題への逆変換を再構成する, ロバスト・アダプティブ・インバージョンのための射影直交最小広場(POLARIS)について紹介する。
埋め込みや潜伏符号を最適化して蓄積ドリフトをオフセットする代わりに、POLARISは誘導スケールωをステップワイズ変数として扱い、各ステップにおける逆誤差を最小限に抑える数学的基底式を導出する。
注目すべきは、POLARISは1行のコードだけで、反転潜伏品質を改善することだ。
無視可能な性能オーバーヘッドにより、ノイズ近似誤差を大幅に軽減し、下流タスクの精度を一貫して改善する。
関連論文リスト
- The Hidden Cost of Approximation in Online Mirror Descent [56.99972253009168]
オンラインミラー降下(OMD)は、最適化、機械学習、シーケンシャルな意思決定において多くのアルゴリズムの基盤となる基本的なアルゴリズムパラダイムである。
本研究では,不正確なOMDに関する系統的研究を開始し,正規化器の滑らかさと近似誤差に対する頑健さとの複雑な関係を明らかにする。
論文 参考訳(メタデータ) (2025-11-27T10:09:07Z) - Noise is All You Need: Solving Linear Inverse Problems by Noise Combination Sampling with Diffusion Models [7.219077740523681]
本稿では,雑音部分空間から最適な雑音ベクトルを合成し,測定スコアを近似する手法を提案する。
本手法は画像圧縮を含む幅広い逆問題解法に適用可能である。
論文 参考訳(メタデータ) (2025-10-24T07:46:23Z) - Diffusion Models for Solving Inverse Problems via Posterior Sampling with Piecewise Guidance [52.705112811734566]
断片的なガイダンススキームを用いて,逆問題を解決するための新しい拡散型フレームワークが導入された。
提案手法は問題に依存しず,様々な逆問題に容易に適応できる。
このフレームワークは, (4時間), (8時間) の超分解能タスクに対して, (23%), (24%) および (24%) の無作為マスクを塗布する場合の (25%) の推論時間を短縮する。
論文 参考訳(メタデータ) (2025-07-22T19:35:14Z) - Error Feedback under $(L_0,L_1)$-Smoothness: Normalization and Momentum [56.37522020675243]
機械学習の幅広い問題にまたがる正規化誤差フィードバックアルゴリズムに対する収束の最初の証明を提供する。
提案手法では,許容可能なステップサイズが大きくなったため,新しい正規化エラーフィードバックアルゴリズムは,各種タスクにおける非正規化エラーよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T10:19:27Z) - Adaptive operator learning for infinite-dimensional Bayesian inverse problems [7.716833952167609]
本研究では,局所的に精度の高いサロゲートを強制することによって,モデリングエラーを段階的に低減できる適応型演算子学習フレームワークを開発した。
UKIフレームワークを用いて線形の場合において厳密な収束を保証する。
その結果,逆精度を維持しながら計算コストを大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2023-10-27T01:50:33Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Diffusion Posterior Sampling for General Noisy Inverse Problems [50.873313752797124]
我々は、後方サンプリングの近似により、雑音(非線形)逆問題に対処するために拡散解法を拡張した。
本手法は,拡散モデルが様々な計測ノイズ統計を組み込むことができることを示す。
論文 参考訳(メタデータ) (2022-09-29T11:12:27Z) - Learned convex regularizers for inverse problems [3.294199808987679]
本稿では,逆問題に対する正規化器として,データ適応型入力ニューラルネットワーク(ICNN)を学習することを提案する。
パラメータ空間における単調な誤差を反復で減少させる部分次アルゴリズムの存在を実証する。
提案した凸正則化器は, 逆問題に対する最先端のデータ駆動技術に対して, 少なくとも競争力があり, 時には優位であることを示す。
論文 参考訳(メタデータ) (2020-08-06T18:58:35Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。