論文の概要: Deformable Graph Transformer
- arxiv url: http://arxiv.org/abs/2206.14337v1
- Date: Wed, 29 Jun 2022 00:23:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-30 20:23:25.244880
- Title: Deformable Graph Transformer
- Title(参考訳): 変形可能なグラフトランス
- Authors: Jinyoung Park, Seongjun Yun, Hyeonjin Park, Jaewoo Kang, Jisu Jeong,
Kyung-Min Kim, Jung-woo Ha, Hyunwoo J. Kim
- Abstract要約: 本稿では動的にサンプリングされたキーと値のペアでスパースアテンションを行うDeformable Graph Transformer (DGT)を提案する。
実験により、我々の新しいグラフトランスフォーマーは既存のトランスフォーマーベースモデルより一貫して優れていることが示された。
- 参考スコア(独自算出の注目度): 31.254872949603982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformer-based models have been widely used and achieved state-of-the-art
performance in various domains such as natural language processing and computer
vision. Recent works show that Transformers can also be generalized to
graph-structured data. However, the success is limited to small-scale graphs
due to technical challenges such as the quadratic complexity in regards to the
number of nodes and non-local aggregation that often leads to inferior
generalization performance to conventional graph neural networks. In this
paper, to address these issues, we propose Deformable Graph Transformer (DGT)
that performs sparse attention with dynamically sampled key and value pairs.
Specifically, our framework first constructs multiple node sequences with
various criteria to consider both structural and semantic proximity. Then, the
sparse attention is applied to the node sequences for learning node
representations with a reduced computational cost. We also design simple and
effective positional encodings to capture structural similarity and distance
between nodes. Experiments demonstrate that our novel graph Transformer
consistently outperforms existing Transformer-based models and shows
competitive performance compared to state-of-the-art models on 8 graph
benchmark datasets including large-scale graphs.
- Abstract(参考訳): トランスフォーマーベースのモデルは、自然言語処理やコンピュータビジョンといった様々な領域で広く使われ、最先端のパフォーマンスを実現している。
最近の研究によると、Transformerはグラフ構造化データにも一般化可能である。
しかしながら、ノード数や非局所集約に関する2次複雑性などの技術的課題により、従来のグラフニューラルネットワークの一般化性能に劣ることが多いため、成功は小規模グラフに限られている。
本稿では、これらの問題に対処するために、動的にサンプリングされたキーと値のペアでスパースアテンションを行うDeformable Graph Transformer (DGT)を提案する。
具体的には、まず、構造的および意味的近接性を検討するために、様々な基準を持つ複数のノードシーケンスを構築する。
次に、計算コストを低減したノード表現を学習するためのノードシーケンスにスパースアテンションを適用する。
また,ノード間の構造的類似性と距離を捉えるために,単純かつ効果的な位置符号化も設計する。
新しいグラフトランスフォーマは,既存のトランスフォーマモデルよりも一貫して優れており,大規模グラフを含む8つのグラフベンチマークデータセットの最先端モデルと比較して,競争力を示す。
関連論文リスト
- A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - What Improves the Generalization of Graph Transformers? A Theoretical Dive into the Self-attention and Positional Encoding [67.59552859593985]
自己アテンションと位置エンコーディングを組み込んだグラフトランスフォーマーは、さまざまなグラフ学習タスクのための強力なアーキテクチャとして登場した。
本稿では,半教師付き分類のための浅いグラフ変換器の理論的検討について紹介する。
論文 参考訳(メタデータ) (2024-06-04T05:30:16Z) - Graph Transformers without Positional Encodings [0.7252027234425334]
グラフのラプラシアンスペクトルを認識する新しいスペクトル対応アテンション機構を用いたグラフ変換器であるEigenformerを紹介する。
我々は,多数の標準GNNベンチマークにおいて,SOTAグラフ変換器の性能向上を実証的に示す。
論文 参考訳(メタデータ) (2024-01-31T12:33:31Z) - Deep Prompt Tuning for Graph Transformers [55.2480439325792]
ファインチューニングはリソース集約型であり、大きなモデルのコピーを複数保存する必要がある。
ファインチューニングの代替として,ディープグラフプロンプトチューニングと呼ばれる新しい手法を提案する。
事前学習したパラメータを凍結し、追加したトークンのみを更新することにより、フリーパラメータの数を減らし、複数のモデルコピーを不要にする。
論文 参考訳(メタデータ) (2023-09-18T20:12:17Z) - SGFormer: Simplifying and Empowering Transformers for Large-Graph Representations [75.71298846760303]
ノード特性予測ベンチマークにおいて,一層注意が驚くほど高い性能を示すことを示す。
提案手法をSGFormer (Simplified Graph Transformer) と呼ぶ。
提案手法は,大きなグラフ上にトランスフォーマーを構築する上で,独立性のある新たな技術パスを啓蒙するものである。
論文 参考訳(メタデータ) (2023-06-19T08:03:25Z) - Discrete Graph Auto-Encoder [52.50288418639075]
離散グラフオートエンコーダ(DGAE)という新しいフレームワークを導入する。
まず、置換同変オートエンコーダを用いてグラフを離散潜在ノード表現の集合に変換する。
2番目のステップでは、離散潜在表現の集合をソートし、特別に設計された自己回帰モデルを用いてそれらの分布を学習する。
論文 参考訳(メタデータ) (2023-06-13T12:40:39Z) - Transformers over Directed Acyclic Graphs [6.263470141349622]
有向非巡回グラフ(DAG)上の変換器について検討し,DAGに適したアーキテクチャ適応を提案する。
グラフトランスフォーマーは、DAGに適したグラフニューラルネットワークを概ね上回り、品質と効率の両面でSOTAグラフトランスフォーマーの性能を向上させるのに有効であることを示す。
論文 参考訳(メタデータ) (2022-10-24T12:04:52Z) - Hierarchical Graph Transformer with Adaptive Node Sampling [19.45896788055167]
現在のグラフ変換器の主な欠陥を同定する。
ほとんどのサンプリング戦略は、近隣にのみ焦点をあて、グラフ内の長距離依存を無視している。
本稿では,グラフ粗化を用いた階層型アテンション方式を提案する。
論文 参考訳(メタデータ) (2022-10-08T05:53:25Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Rethinking Graph Transformers with Spectral Attention [13.068288784805901]
我々は、学習された位置符号化(LPE)を用いて、与えられたグラフ内の各ノードの位置を学習するtextitSpectral Attention Network$(SAN)を提示する。
ラプラシアンの完全なスペクトルを利用することで、我々のモデルは理論上グラフの区別に強力であり、類似のサブ構造を共鳴からよりよく検出することができる。
我々のモデルは最先端のGNNよりも同等かそれ以上の性能を発揮し、あらゆる注目ベースモデルよりも広いマージンで性能を向上する。
論文 参考訳(メタデータ) (2021-06-07T18:11:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。