論文の概要: Gophormer: Ego-Graph Transformer for Node Classification
- arxiv url: http://arxiv.org/abs/2110.13094v1
- Date: Mon, 25 Oct 2021 16:43:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 17:20:11.811491
- Title: Gophormer: Ego-Graph Transformer for Node Classification
- Title(参考訳): gophormer: ノード分類のためのegoグラフトランスフォーマー
- Authors: Jianan Zhao, Chaozhuo Li, Qianlong Wen, Yiqi Wang, Yuming Liu, Hao
Sun, Xing Xie and Yanfang Ye
- Abstract要約: 本稿では,egoグラフにフルグラフの代わりにトランスフォーマーを適用した新しいGophormerモデルを提案する。
具体的には、変圧器の入力としてエゴグラフをサンプリングするためにNode2Seqモジュールが提案されており、スケーラビリティの課題が軽減されている。
エゴグラフサンプリングで導入された不確実性に対処するために,一貫性の正則化とマルチサンプル推論戦略を提案する。
- 参考スコア(独自算出の注目度): 27.491500255498845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformers have achieved remarkable performance in a myriad of fields
including natural language processing and computer vision. However, when it
comes to the graph mining area, where graph neural network (GNN) has been the
dominant paradigm, transformers haven't achieved competitive performance,
especially on the node classification task. Existing graph transformer models
typically adopt fully-connected attention mechanism on the whole input graph
and thus suffer from severe scalability issues and are intractable to train in
data insufficient cases. To alleviate these issues, we propose a novel
Gophormer model which applies transformers on ego-graphs instead of
full-graphs. Specifically, Node2Seq module is proposed to sample ego-graphs as
the input of transformers, which alleviates the challenge of scalability and
serves as an effective data augmentation technique to boost model performance.
Moreover, different from the feature-based attention strategy in vanilla
transformers, we propose a proximity-enhanced attention mechanism to capture
the fine-grained structural bias. In order to handle the uncertainty introduced
by the ego-graph sampling, we further propose a consistency regularization and
a multi-sample inference strategy for stabilized training and testing,
respectively. Extensive experiments on six benchmark datasets are conducted to
demonstrate the superiority of Gophormer over existing graph transformers and
popular GNNs, revealing the promising future of graph transformers.
- Abstract(参考訳): トランスフォーマーは、自然言語処理やコンピュータビジョンなど、無数の分野で目覚ましい性能を達成している。
しかしながら、グラフニューラルネットワーク(gnn)が支配的なパラダイムであるグラフマイニング領域に関しては、特にノード分類タスクにおいて、トランスフォーマーは競争性能を達成できていない。
既存のグラフトランスフォーマモデルでは、入力グラフ全体に完全に接続された注意機構を採用しているため、スケーラビリティの重大な問題が発生し、データ不足のケースではトレーニングが困難である。
そこで本研究では,egoグラフに完全グラフではなくトランスフォーマーを適用する新しいgophormerモデルを提案する。
具体的には、変圧器の入力としてエゴグラフをサンプリングするためにNode2Seqモジュールが提案され、スケーラビリティの課題を軽減し、モデルパフォーマンスを向上させる効果的なデータ拡張技術として機能する。
さらに,バニラ変圧器の特徴に基づく注意戦略とは異なり,細粒度構造バイアスを捉えるための近接注意機構を提案する。
さらに,エゴグラフサンプリングがもたらす不確実性に対処するために,安定トレーニングとテストのための整合正則化とマルチサンプル推論戦略を提案する。
6つのベンチマークデータセットに対する大規模な実験を行い、既存のグラフトランスフォーマーや人気のあるGNNよりもGophormerの方が優れていることを示した。
関連論文リスト
- SGFormer: Single-Layer Graph Transformers with Approximation-Free Linear Complexity [74.51827323742506]
グラフ上でのトランスフォーマーにおける多層アテンションの導入の必要性を評価する。
本研究では,一層伝播を一層伝播に還元できることを示す。
これは、グラフ上で強力で効率的なトランスフォーマーを構築するための新しい技術パスを示唆している。
論文 参考訳(メタデータ) (2024-09-13T17:37:34Z) - Deep Prompt Tuning for Graph Transformers [55.2480439325792]
ファインチューニングはリソース集約型であり、大きなモデルのコピーを複数保存する必要がある。
ファインチューニングの代替として,ディープグラフプロンプトチューニングと呼ばれる新しい手法を提案する。
事前学習したパラメータを凍結し、追加したトークンのみを更新することにより、フリーパラメータの数を減らし、複数のモデルコピーを不要にする。
論文 参考訳(メタデータ) (2023-09-18T20:12:17Z) - SGFormer: Simplifying and Empowering Transformers for Large-Graph Representations [75.71298846760303]
ノード特性予測ベンチマークにおいて,一層注意が驚くほど高い性能を示すことを示す。
提案手法をSGFormer (Simplified Graph Transformer) と呼ぶ。
提案手法は,大きなグラフ上にトランスフォーマーを構築する上で,独立性のある新たな技術パスを啓蒙するものである。
論文 参考訳(メタデータ) (2023-06-19T08:03:25Z) - Are More Layers Beneficial to Graph Transformers? [97.05661983225603]
現在のグラフ変換器は、深さの増大によるパフォーマンス向上のボトルネックに悩まされている。
ディープグラフ変換器は、グローバルな注目の消滅能力によって制限されている。
本稿では,符号化表現に部分構造トークンを明示的に用いたDeepGraphという新しいグラフトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2023-03-01T15:22:40Z) - Transformers over Directed Acyclic Graphs [6.263470141349622]
有向非巡回グラフ(DAG)上の変換器について検討し,DAGに適したアーキテクチャ適応を提案する。
グラフトランスフォーマーは、DAGに適したグラフニューラルネットワークを概ね上回り、品質と効率の両面でSOTAグラフトランスフォーマーの性能を向上させるのに有効であることを示す。
論文 参考訳(メタデータ) (2022-10-24T12:04:52Z) - Hierarchical Graph Transformer with Adaptive Node Sampling [19.45896788055167]
現在のグラフ変換器の主な欠陥を同定する。
ほとんどのサンプリング戦略は、近隣にのみ焦点をあて、グラフ内の長距離依存を無視している。
本稿では,グラフ粗化を用いた階層型アテンション方式を提案する。
論文 参考訳(メタデータ) (2022-10-08T05:53:25Z) - Deformable Graph Transformer [31.254872949603982]
本稿では動的にサンプリングされたキーと値のペアでスパースアテンションを行うDeformable Graph Transformer (DGT)を提案する。
実験により、我々の新しいグラフトランスフォーマーは既存のトランスフォーマーベースモデルより一貫して優れていることが示された。
論文 参考訳(メタデータ) (2022-06-29T00:23:25Z) - Glance-and-Gaze Vision Transformer [13.77016463781053]
我々は Glance-and-Gaze Transformer (GG-Transformer) という新しい視覚変換器を提案する。
自然の場面で物体を認識するとき、人間のGlance and Gazeの行動によって動機付けられている。
提案手法は,従来の最先端変圧器よりも一貫した性能を実現することを実証的に実証する。
論文 参考訳(メタデータ) (2021-06-04T06:13:47Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z) - Applying the Transformer to Character-level Transduction [68.91664610425114]
この変換器は、様々な単語レベルのNLPタスクにおいて、繰り返しニューラルネットワークに基づくシーケンス・ツー・シーケンスモデルより優れていることが示されている。
十分なバッチサイズで、トランスフォーマーは文字レベルタスクの繰り返しモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-20T17:25:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。