論文の概要: Learning Graph Regularisation for Guided Super-Resolution
- arxiv url: http://arxiv.org/abs/2203.14297v1
- Date: Sun, 27 Mar 2022 13:12:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-02 19:10:10.199955
- Title: Learning Graph Regularisation for Guided Super-Resolution
- Title(参考訳): 超解法ガイドのためのグラフ正規化の学習
- Authors: Riccardo de Lutio and Alexander Becker and Stefano D'Aronco and
Stefania Russo and Jan D. Wegner and Konrad Schindler
- Abstract要約: 誘導超解像のための新しい定式化を導入する。
そのコアは、学習親和性グラフ上で動作する微分可能な最適化層である。
提案手法をいくつかのデータセット上で広範囲に評価し, 定量的な再構成誤差の点から最近のベースラインを一貫して上回っている。
- 参考スコア(独自算出の注目度): 77.7568596501908
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a novel formulation for guided super-resolution. Its core is a
differentiable optimisation layer that operates on a learned affinity graph.
The learned graph potentials make it possible to leverage rich contextual
information from the guide image, while the explicit graph optimisation within
the architecture guarantees rigorous fidelity of the high-resolution target to
the low-resolution source. With the decision to employ the source as a
constraint rather than only as an input to the prediction, our method differs
from state-of-the-art deep architectures for guided super-resolution, which
produce targets that, when downsampled, will only approximately reproduce the
source. This is not only theoretically appealing, but also produces crisper,
more natural-looking images. A key property of our method is that, although the
graph connectivity is restricted to the pixel lattice, the associated edge
potentials are learned with a deep feature extractor and can encode rich
context information over large receptive fields. By taking advantage of the
sparse graph connectivity, it becomes possible to propagate gradients through
the optimisation layer and learn the edge potentials from data. We extensively
evaluate our method on several datasets, and consistently outperform recent
baselines in terms of quantitative reconstruction errors, while also delivering
visually sharper outputs. Moreover, we demonstrate that our method generalises
particularly well to new datasets not seen during training.
- Abstract(参考訳): 超解像誘導のための新しい定式化を提案する。
そのコアは、学習親和性グラフ上で動作する微分可能な最適化層である。
学習されたグラフポテンシャルは、ガイド画像からのリッチなコンテキスト情報を活用することができる一方、アーキテクチャ内の明示的なグラフ最適化は、低解像度のソースに対する高解像度ターゲットの厳密な忠実さを保証する。
予測の入力としてのみではなく、ソースを制約として利用するという決定により、本手法はガイド付き超解像のための最先端の深層アーキテクチャとは違い、ダウンサンプリングされた場合、ソースをほぼ再現するターゲットを生成する。
これは理論的に魅力的であるだけでなく、より鮮明でより自然なイメージを生み出す。
提案手法の重要な特徴は,グラフ接続は画素格子に制限されているものの,関連するエッジポテンシャルは深い特徴抽出器を用いて学習し,大きな受容領域上のリッチコンテキスト情報をエンコードできる点である。
疎グラフ接続を利用することで、最適化層を通して勾配を伝播させ、データからエッジポテンシャルを学ぶことができる。
本手法を複数のデータセット上で広範囲に評価し,近年の基準値よりも定量的に比較し,視覚的にシャープなアウトプットを提供する。
さらに,本手法はトレーニング中に見ることのない新しいデータセットに特によく適用できることを示す。
関連論文リスト
- Preserving Node Distinctness in Graph Autoencoders via Similarity Distillation [9.395697548237333]
グラフオートエンコーダ(GAE)は、平均二乗誤差(MSE)のような距離ベースの基準に依存して入力グラフを再構築する。
単一の再構築基準にのみ依存すると 再建されたグラフの 特徴が失われる可能性がある
我々は,再構成されたグラフにおいて,必要な相違性を維持するための簡易かつ効果的な戦略を開発した。
論文 参考訳(メタデータ) (2024-06-25T12:54:35Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - A Complex Network based Graph Embedding Method for Link Prediction [0.0]
本稿では,人気相似性と地域アトラクションのパラダイムに基づく新しいグラフ埋め込み手法を提案する。
実験結果から,提案手法は最先端のグラフ埋め込みアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-09-11T14:46:38Z) - Deep Manifold Learning with Graph Mining [80.84145791017968]
グラフマイニングのための非段階的決定層を持つ新しいグラフ深層モデルを提案する。
提案モデルでは,現行モデルと比較して最先端性能を実現している。
論文 参考訳(メタデータ) (2022-07-18T04:34:08Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Scaling Up Graph Neural Networks Via Graph Coarsening [18.176326897605225]
グラフニューラルネットワーク(GNN)のスケーラビリティは、マシンラーニングにおける大きな課題のひとつだ。
本稿では,GNNのスケーラブルなトレーニングにグラフ粗大化を用いることを提案する。
既成の粗大化法を単純に適用すれば,分類精度を著しく低下させることなく,ノード数を最大10倍に削減できることを示す。
論文 参考訳(メタデータ) (2021-06-09T15:46:17Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - A Light Heterogeneous Graph Collaborative Filtering Model using Textual
Information [16.73333758538986]
我々は,高度自然言語処理(NLP)モデルを用いて,関連性があり,アクセスしやすいテキスト情報を利用する。
ヘテロジニアスグラフ上のRGCN(RGCN,リレーショナルグラフ畳み込みネットワーク)協調フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2020-10-04T11:10:37Z) - Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings [53.58077686470096]
グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-21T19:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。