論文の概要: Key-Graph Transformer for Image Restoration
- arxiv url: http://arxiv.org/abs/2402.02634v1
- Date: Sun, 4 Feb 2024 23:00:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 18:23:27.391952
- Title: Key-Graph Transformer for Image Restoration
- Title(参考訳): 画像復元用キーグラフトランス
- Authors: Bin Ren, Yawei Li, Jingyun Liang, Rakesh Ranjan, Mengyuan Liu, Rita
Cucchiara, Luc Van Gool, Nicu Sebe
- Abstract要約: 本稿ではキーグラフ変換器(KGT)について紹介する。
提案したキーグラフコンストラクタは、すべてのノードの代わりに必須ノードを選択的に接続することにより、スパースだが代表的なキーグラフを効率的に形成する。
- 参考スコア(独自算出の注目度): 122.7334034968327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While it is crucial to capture global information for effective image
restoration (IR), integrating such cues into transformer-based methods becomes
computationally expensive, especially with high input resolution. Furthermore,
the self-attention mechanism in transformers is prone to considering
unnecessary global cues from unrelated objects or regions, introducing
computational inefficiencies. In response to these challenges, we introduce the
Key-Graph Transformer (KGT) in this paper. Specifically, KGT views patch
features as graph nodes. The proposed Key-Graph Constructor efficiently forms a
sparse yet representative Key-Graph by selectively connecting essential nodes
instead of all the nodes. Then the proposed Key-Graph Attention is conducted
under the guidance of the Key-Graph only among selected nodes with linear
computational complexity within each window. Extensive experiments across 6 IR
tasks confirm the proposed KGT's state-of-the-art performance, showcasing
advancements both quantitatively and qualitatively.
- Abstract(参考訳): 効率的な画像復元(IR)のためには,グローバルな情報を捕捉することが重要であるが,特に高い入力解像度で,トランスフォーマーベースの手法に統合することは,計算コストが高くなる。
さらに、トランスにおける自己保持機構は、非関係なオブジェクトや領域からの不要なグローバルな手がかりを考慮し、計算の非効率性を導入する傾向にある。
これらの課題に対応するために,本稿ではキーグラフ変換器(KGT)を紹介する。
具体的には、パッチ機能をグラフノードとして見る。
提案するキーグラフコンストラクタは、すべてのノードではなく必須ノードを選択的に接続することにより、スパースだが代表的なキーグラフを効率的に形成する。
次に、各ウィンドウ内で線形計算複雑性を有する選択ノード間でのみ、キーグラフの指導の下で提案鍵グラフの注意を行う。
6つのIRタスクにわたる広範囲な実験により、提案されたKGTの最先端性能が確認され、定量的かつ定性的に進歩することが示されている。
関連論文リスト
- Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - Transforming Graphs for Enhanced Attribute Clustering: An Innovative
Graph Transformer-Based Method [8.989218350080844]
本研究では、グラフクラスタリングのためのグラフトランスフォーマーオートエンコーダ(GTAGC)と呼ばれる革新的な手法を提案する。
Graph Auto-EncoderをGraph Transformerでマージすることで、GTAGCはノード間のグローバルな依存関係をキャプチャできる。
GTAGCのアーキテクチャはグラフの埋め込み、オートエンコーダ構造内のグラフ変換器の統合、クラスタリングコンポーネントを含んでいる。
論文 参考訳(メタデータ) (2023-06-20T06:04:03Z) - SGFormer: Simplifying and Empowering Transformers for Large-Graph
Representations [78.97396248946174]
ノード特性予測ベンチマークにおいて,一層注意が驚くほど高い性能を示すことを示す。
提案手法をSGFormer (Simplified Graph Transformer) と呼ぶ。
提案手法は,大きなグラフ上にトランスフォーマーを構築する上で,独立性のある新たな技術パスを啓蒙するものである。
論文 参考訳(メタデータ) (2023-06-19T08:03:25Z) - Graph Transformer GANs for Graph-Constrained House Generation [223.739067413952]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
GTGANは、グラフ制約のある住宅生成タスクにおいて、エンドツーエンドで効率的なグラフノード関係を学習する。
論文 参考訳(メタデータ) (2023-03-14T20:35:45Z) - Graph Reasoning Transformer for Image Parsing [67.76633142645284]
本稿では,画像解析のためのグラフ推論変換器(GReaT)を提案する。
従来の変圧器と比較して、GReaTは高い相互作用効率とより目的のある相互作用パターンを有する。
その結果、GReaTは、最先端のトランスフォーマーベースラインにわずかに計算オーバーヘッドを伴って、一貫した性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-09-20T08:21:37Z) - Graph Decipher: A transparent dual-attention graph neural network to
understand the message-passing mechanism for the node classification [2.0047096160313456]
本稿では,メッセージパッシング機構を調べるために,Graph Decipherと呼ばれる新しい透過型ネットワークを提案する。
本アルゴリズムは,ノード分類タスクの負荷を大幅に低減しつつ,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-01-04T23:24:00Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Simple and Effective Graph Autoencoders with One-Hop Linear Models [25.37082257457257]
グラフ畳み込みネットワーク(GCN)エンコーダは、多くのアプリケーションにとって必要以上に複雑であることを示す。
グラフの直近傍(ワンホップ)隣接行列(英語版)(direct neighborhood (one-hop) adjacency matrix) w.r.t. において、より単純で解釈可能な線形モデルで置き換えることを提案する。
論文 参考訳(メタデータ) (2020-01-21T15:33:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。