論文の概要: Unrolling of Deep Graph Total Variation for Image Denoising
- arxiv url: http://arxiv.org/abs/2010.11290v2
- Date: Wed, 24 Mar 2021 02:04:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 00:44:35.418693
- Title: Unrolling of Deep Graph Total Variation for Image Denoising
- Title(参考訳): 画像復調のための深部グラフトータル変動の解法
- Authors: Huy Vu, Gene Cheung and Yonina C. Eldar
- Abstract要約: 本稿では,従来のグラフ信号フィルタリングと深い特徴学習を併用して,競合するハイブリッド設計を提案する。
解釈可能な低パスグラフフィルタを用い、最先端のDL復調方式DnCNNよりも80%少ないネットワークパラメータを用いる。
- 参考スコア(独自算出の注目度): 106.93258903150702
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep learning (DL) architectures like convolutional neural networks
(CNNs) have enabled effective solutions in image denoising, in general their
implementations overly rely on training data, lack interpretability, and
require tuning of a large parameter set. In this paper, we combine classical
graph signal filtering with deep feature learning into a competitive hybrid
design -- one that utilizes interpretable analytical low-pass graph filters and
employs 80% fewer network parameters than state-of-the-art DL denoising scheme
DnCNN. Specifically, to construct a suitable similarity graph for graph
spectral filtering, we first adopt a CNN to learn feature representations per
pixel, and then compute feature distances to establish edge weights. Given a
constructed graph, we next formulate a convex optimization problem for
denoising using a graph total variation (GTV) prior. Via a $l_1$ graph
Laplacian reformulation, we interpret its solution in an iterative procedure as
a graph low-pass filter and derive its frequency response. For fast filter
implementation, we realize this response using a Lanczos approximation.
Experimental results show that in the case of statistical mistmatch, our
algorithm outperformed DnCNN by up to 3dB in PSNR.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)のようなディープラーニング(DL)アーキテクチャは、画像の復調において効果的なソリューションを実現しているが、一般的には、それらの実装はトレーニングデータに過度に依存し、解釈可能性に欠け、大きなパラメータセットのチューニングを必要としている。
本稿では,古典的なグラフ信号フィルタリングと深層特徴学習を併用して,解釈可能な解析的低パスグラフフィルタを応用し,最先端のDL復号化方式であるDnCNNよりも80%少ないネットワークパラメータを用いた,競合するハイブリッド設計を提案する。
具体的には,グラフのスペクトルフィルタリングに適した類似性グラフを構築するために,まずcnnを用いて画素ごとの特徴表現を学習し,特徴距離を計算してエッジ重み付けを確立する。
構築されたグラフが与えられた場合、グラフ全変量(GTV)を事前に用いた凸最適化問題を定式化する。
l_1$グラフラプラシアン変換により、その解をグラフローパスフィルタとして反復的に解釈し、周波数応答を導出する。
高速フィルタ実装では,この応答をlanczos近似を用いて実現する。
実験の結果,PSNRではDnCNNが最大3dB向上した。
関連論文リスト
- Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Robust Graph Neural Network based on Graph Denoising [10.564653734218755]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータセットを扱う学習問題に対して、悪名高い代替手段として登場した。
本研究は,観測トポロジにおける摂動の存在を明示的に考慮した,GNNの堅牢な実装を提案する。
論文 参考訳(メタデータ) (2023-12-11T17:43:57Z) - Learning Stable Graph Neural Networks via Spectral Regularization [18.32587282139282]
グラフニューラルネットワーク(GNN)の安定性は、GNNがグラフ摂動にどう反応するかを特徴付け、ノイズの多いシナリオでアーキテクチャのパフォーマンスを保証する。
本稿では,グラフスペクトル領域におけるフィルタ周波数応答を正規化することにより,アーキテクチャの安定性を向上させる自己正規化グラフニューラルネットワーク(SR-GNN)を開発した。
論文 参考訳(メタデータ) (2022-11-13T17:27:21Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - Scaling Up Graph Neural Networks Via Graph Coarsening [18.176326897605225]
グラフニューラルネットワーク(GNN)のスケーラビリティは、マシンラーニングにおける大きな課題のひとつだ。
本稿では,GNNのスケーラブルなトレーニングにグラフ粗大化を用いることを提案する。
既成の粗大化法を単純に適用すれば,分類精度を著しく低下させることなく,ノード数を最大10倍に削減できることを示す。
論文 参考訳(メタデータ) (2021-06-09T15:46:17Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Graph Neural Networks with Adaptive Frequency Response Filter [55.626174910206046]
適応周波数応答フィルタを用いたグラフニューラルネットワークフレームワークAdaGNNを開発した。
提案手法の有効性を,様々なベンチマークデータセット上で実証的に検証した。
論文 参考訳(メタデータ) (2021-04-26T19:31:21Z) - Graphon Pooling in Graph Neural Networks [169.09536309161314]
グラフニューラルネットワーク(GNN)は、グラフによってモデル化された不規則構造上の信号の処理を含む様々なアプリケーションで効果的に使用されている。
本稿では,グラフのスペクトル特性を保存したグラフオンを用いて,GNNのプールとサンプリングを行う新しい手法を提案する。
論文 参考訳(メタデータ) (2020-03-03T21:04:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。