論文の概要: Graph Algorithm Unrolling with Douglas-Rachford Iterations for Image Interpolation with Guaranteed Initialization
- arxiv url: http://arxiv.org/abs/2509.11926v1
- Date: Mon, 15 Sep 2025 13:43:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.316678
- Title: Graph Algorithm Unrolling with Douglas-Rachford Iterations for Image Interpolation with Guaranteed Initialization
- Title(参考訳): 保証初期化による画像補間のためのDouglas-Rachfordイテレーションを用いたグラフアルゴリズム
- Authors: Xue Zhang, Bingshuo Hu, Gene Cheung,
- Abstract要約: 従来のディープニューラルネット(DNN)は、ネットワークパラメータをランダムに初期化し、降下によって各パラメータを最適化する。
本稿では,従来のグラフシフト変動(GSV)に則ったMAP問題の解である有向グラフフィルタに,擬似線形補間器 Theta を写像する解を提案する。
実験により,ネットワークパラメータを劇的に削減しながら,最先端の画像結果が得られた。
- 参考スコア(独自算出の注目度): 30.266182085126175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional deep neural nets (DNNs) initialize network parameters at random and then optimize each one via stochastic gradient descent (SGD), resulting in substantial risk of poor-performing local minima.Focusing on the image interpolation problem and leveraging a recent theorem that maps a (pseudo-)linear interpolator {\Theta} to a directed graph filter that is a solution to a MAP problem regularized with a graph shift variation (GSV) prior, we first initialize a directed graph adjacency matrix A based on a known interpolator {\Theta}, establishing a baseline performance.Then, towards further gain, we learn perturbation matrices P and P(2) from data to augment A, whose restoration effects are implemented via Douglas-Rachford (DR) iterations, which we unroll into a lightweight interpretable neural net.Experimental results demonstrate state-of-the-art image interpolation results, while drastically reducing network parameters.
- Abstract(参考訳): 従来のディープ・ニューラルネット(DNN)は、ランダムにネットワークパラメータを初期化し、確率勾配降下(SGD)を介して各パラメータを最適化し、性能の低い局所最小値(英語版)(英語版)(英語版)(英語版)(SGD)を介して、画像補間問題(英語版)のかなりのリスクを負う。この画像補間問題に基づいて、(擬似)線形補間子 {\Theta} を、グラフシフト変動(GSV)に規則化されたMAP問題に対する解である有向グラフフィルタ(英語版)にマッピングする最近の定理を利用して、既知の補間子(英語版) {\theta} に基づいて有向グラフ隣接行列(英語版)Aを初期化し、ベースライン性能を確立する。
関連論文リスト
- Interpretable Lightweight Transformer via Unrolling of Learned Graph Smoothness Priors [16.04850782310842]
我々は反復最適化アルゴリズムをアンロールすることで、解釈可能で軽量なトランスフォーマーのようなニューラルネットワークを構築する。
正規化信号依存グラフ学習モジュールは、従来の変圧器の基本自己保持機構の変種に相当する。
論文 参考訳(メタデータ) (2024-06-06T14:01:28Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - Unrolling of Deep Graph Total Variation for Image Denoising [106.93258903150702]
本稿では,従来のグラフ信号フィルタリングと深い特徴学習を併用して,競合するハイブリッド設計を提案する。
解釈可能な低パスグラフフィルタを用い、最先端のDL復調方式DnCNNよりも80%少ないネットワークパラメータを用いる。
論文 参考訳(メタデータ) (2020-10-21T20:04:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。