論文の概要: You KAN Do It in a Single Shot: Plug-and-Play Methods with Single-Instance Priors
- arxiv url: http://arxiv.org/abs/2412.06204v1
- Date: Mon, 09 Dec 2024 04:55:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:54:46.367759
- Title: You KAN Do It in a Single Shot: Plug-and-Play Methods with Single-Instance Priors
- Title(参考訳): you kan it in a Single Shot: Plug-and-Play Methods with Single-Instance Priors
- Authors: Yanqi Cheng, Carola-Bibiane Schönlieb, Angelica I Aviles-Rivero,
- Abstract要約: 我々はKologorov-Networks(KAN)をデノイザとして組み込んだ最適化フレームワークであるKankan-Playを紹介する。
Kan-Playは、単一ノイズしか観測できないシングルインスタンス逆の問題を解決するように設計されている。
- 参考スコア(独自算出の注目度): 10.726369475010818
- License:
- Abstract: The use of Plug-and-Play (PnP) methods has become a central approach for solving inverse problems, with denoisers serving as regularising priors that guide optimisation towards a clean solution. In this work, we introduce KAN-PnP, an optimisation framework that incorporates Kolmogorov-Arnold Networks (KANs) as denoisers within the Plug-and-Play (PnP) paradigm. KAN-PnP is specifically designed to solve inverse problems with single-instance priors, where only a single noisy observation is available, eliminating the need for large datasets typically required by traditional denoising methods. We show that KANs, based on the Kolmogorov-Arnold representation theorem, serve effectively as priors in such settings, providing a robust approach to denoising. We prove that the KAN denoiser is Lipschitz continuous, ensuring stability and convergence in optimisation algorithms like PnP-ADMM, even in the context of single-shot learning. Additionally, we provide theoretical guarantees for KAN-PnP, demonstrating its convergence under key conditions: the convexity of the data fidelity term, Lipschitz continuity of the denoiser, and boundedness of the regularisation functional. These conditions are crucial for stable and reliable optimisation. Our experimental results show, on super-resolution and joint optimisation, that KAN-PnP outperforms exiting methods, delivering superior performance in single-shot learning with minimal data. The method exhibits strong convergence properties, achieving high accuracy with fewer iterations.
- Abstract(参考訳): Plug-and-Play(PnP)メソッドの使用は、逆問題の解決において中心的なアプローチとなり、クリーンなソリューションへ最適化を導くための事前調整としてデノイザが役立っている。
本稿では,Kan-PnPを紹介し,Kolmogorov-Arnold Networks(KAN)をPlug-and-Play(PnP)パラダイムのデノイザとして組み込んだ最適化フレームワークを提案する。
Kan-PnPは、単一のノイズしか観測できない単一インスタンス前の逆問題を解決するために特別に設計されている。
我々は、コルモゴロフ・アルノルドの表現定理に基づくカンが、そのような設定の先行として効果的に機能することを示し、デノナイズに対する堅牢なアプローチを提供する。
単発学習においても,kan denoiserはLipschitz連続であり,PnP-ADMMのような最適化アルゴリズムの安定性と収束性を保証する。
さらに,データ忠実度項の凸性,デノイザのリプシッツ連続性,正規化関数の有界性など,重要な条件下での収束を示す理論的な保証も提供する。
これらの条件は安定かつ信頼性の高い最適化に不可欠である。
実験の結果,Kan-PnPは,超高分解能および共同最適化において,退避法よりも優れ,最小限のデータを用いた単発学習において優れた性能が得られることがわかった。
この方法は強い収束特性を示し、より少ないイテレーションで高い精度を達成する。
関連論文リスト
- An Efficient Difference-of-Convex Solver for Privacy Funnel [3.069335774032178]
本稿では,プライバシ・ファンネル(PF)手法の効率的な解法を提案する。
提案した直流分離は, クローズドフォーム更新方程式を導出する。
提案手法をMNISTおよびFashionデータセットを用いて評価する。
論文 参考訳(メタデータ) (2024-03-02T01:05:25Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Single-Shot Plug-and-Play Methods for Inverse Problems [24.48841512811108]
近年,逆問題におけるプラグイン・アンド・プレイの先行が注目されている。
既存のモデルは、主に大規模なデータセットを使用した事前訓練されたデノイザに依存している。
本研究では,最小限のデータを用いて逆問題に焦点を移す単一ショット摂動法を提案する。
論文 参考訳(メタデータ) (2023-11-22T20:31:33Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - A Corrected Expected Improvement Acquisition Function Under Noisy
Observations [22.63212972670109]
期待される改善の順序 (EI) はベイズ最適化において最も広く用いられている政策の一つである。
既存の解に関する不確実性は、多くの解析的EI型法で無視されることが多い。
本稿では,ガウス過程(GP)モデルによって提供される共分散情報を組み込むことで,その閉形式表現を補正するEIの修正を提案する。
論文 参考訳(メタデータ) (2023-10-08T13:50:39Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Provably Convergent Plug-and-Play Quasi-Newton Methods [5.9974035827998655]
本稿では,忠実度項とディープデノイザを併用する効率的な手法を提案する。
提案した準ニュートンアルゴリズムは,弱凸関数の臨界点であることを示す。
画像ブラアリングと超高分解能の実験は、他の証明可能なdeM法と比較して、より高速な収束を示す。
論文 参考訳(メタデータ) (2023-03-09T20:09:15Z) - On the Convergence of Stochastic Extragradient for Bilinear Games with
Restarted Iteration Averaging [96.13485146617322]
本稿では, ステップサイズが一定であるSEG法の解析を行い, 良好な収束をもたらす手法のバリエーションを示す。
平均化で拡張した場合、SEGはナッシュ平衡に確実に収束し、スケジュールされた再起動手順を組み込むことで、その速度が確実に加速されることを証明した。
論文 参考訳(メタデータ) (2021-06-30T17:51:36Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Fixed-Point and Objective Convergence of Plug-and-Play Algorithms [25.65350839936094]
画像再構築の標準モデルは、正規化と共にデータ忠実性ノベルティ項の再構築を含む。
本稿では, 特殊近位線形デノイザに対する収束の両形態を定式化する。
我々は、線型 denoiser から派生した特別な内積(およびノルム)を扱う。
論文 参考訳(メタデータ) (2021-04-21T04:25:17Z) - Improved, Deterministic Smoothing for L1 Certified Robustness [119.86676998327864]
分割雑音を伴う非加法的決定論的平滑化法(dssn)を提案する。
一様加法平滑化とは対照的に、ssn認証は無作為なノイズコンポーネントを独立に必要としない。
これは、規範ベースの敵対的脅威モデルに対して決定論的「ランダム化平滑化」を提供する最初の仕事である。
論文 参考訳(メタデータ) (2021-03-17T21:49:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。