論文の概要: Enhanced Graph Transformer with Serialized Graph Tokens
- arxiv url: http://arxiv.org/abs/2602.09065v1
- Date: Mon, 09 Feb 2026 07:23:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.16832
- Title: Enhanced Graph Transformer with Serialized Graph Tokens
- Title(参考訳): シリアライズされたグラフトークンを用いた拡張グラフ変換器
- Authors: Ruixiang Wang, Yuyang Hong, Shiming Xiang, Chunhong Pan,
- Abstract要約: トランスフォーマーはグラフ学習、特にノードレベルのタスクで成功している。
本稿では,グローバル信号をより効果的にカプセル化するための,新しいシリアライズトークンパラダイムを提案する。
提案手法は,いくつかのグラフレベルのベンチマークにおいて,最先端の結果が得られることを示す。
- 参考スコア(独自算出の注目度): 28.343061516069756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformers have demonstrated success in graph learning, particularly for node-level tasks. However, existing methods encounter an information bottleneck when generating graph-level representations. The prevalent single token paradigm fails to fully leverage the inherent strength of self-attention in encoding token sequences, and degenerates into a weighted sum of node signals. To address this issue, we design a novel serialized token paradigm to encapsulate global signals more effectively. Specifically, a graph serialization method is proposed to aggregate node signals into serialized graph tokens, with positional encoding being automatically involved. Then, stacked self-attention layers are applied to encode this token sequence and capture its internal dependencies. Our method can yield more expressive graph representations by modeling complex interactions among multiple graph tokens. Experimental results show that our method achieves state-of-the-art results on several graph-level benchmarks. Ablation studies verify the effectiveness of the proposed modules.
- Abstract(参考訳): トランスフォーマーはグラフ学習、特にノードレベルのタスクで成功している。
しかし、既存の手法はグラフレベルの表現を生成する際に、情報のボトルネックに遭遇する。
一般的なシングルトークンパラダイムは、トークンシーケンスを符号化する際の自己アテンションの固有の強度を完全に活用できず、ノード信号の重み付けされた和に縮退する。
この問題に対処するために,グローバル信号をより効果的にカプセル化するための,新しいシリアライズトークンパラダイムを設計する。
具体的には,ノード信号をシリアライズしたグラフトークンに集約するグラフシリアライズ手法を提案する。
次に、このトークンシーケンスをエンコードし、内部の依存関係をキャプチャするために、スタックされた自己アテンション層を適用します。
複数のグラフトークン間の複雑な相互作用をモデル化することにより,より表現力の高いグラフ表現が得られる。
実験結果から,本手法はいくつかのグラフレベルベンチマークにおいて最先端の結果が得られることがわかった。
アブレーション研究は提案したモジュールの有効性を検証する。
関連論文リスト
- Semi-supervised Instruction Tuning for Large Language Models on Text-Attributed Graphs [62.544129365882014]
本稿では,SIT-Graph というグラフ学習用セミ教師付きインストラクションチューニングパイプラインを提案する。
SIT-Graphはモデルに依存しず、LSMを予測子として利用するグラフ命令チューニングメソッドにシームレスに統合することができる。
SIT-Graphは、最先端グラフチューニング手法に組み込むと、テキスト分散グラフベンチマークの性能を大幅に向上することを示した。
論文 参考訳(メタデータ) (2026-01-19T08:10:53Z) - Auto-encoding Molecules: Graph-Matching Capabilities Matter [0.0]
変分オートエンコーダ(VAE)の学習行動と生成能力に及ぼすグラフマッチング精度の影響を示す。
本稿では,グラフニューラルネットワークデコーダの代替として,トランスフォーマを用いたメッセージパッシンググラフデコーダを提案する。
本稿では,グラフマッチングの精度が学習行動に重大な影響を与え,デノボグラフ生成に不可欠であることを示す。
論文 参考訳(メタデータ) (2025-03-01T10:00:37Z) - VCR-Graphormer: A Mini-batch Graph Transformer via Virtual Connections [45.27160435758666]
本稿では,各ノードのトークンリストをバッチにロードすることで,グラフトランスフォーマーのミニバッチトレーニングを可能にすることを示す。
さらに、このPPRトークン化は、固定フィルタとジャンプ知識を備えたグラフ畳み込みネットワークとして有効であることを示す。
論文 参考訳(メタデータ) (2024-03-24T06:10:56Z) - Sparse Training of Discrete Diffusion Models for Graph Generation [45.103518022696996]
SparseDiffは、ほとんど全ての大きなグラフがスパースであるという観察に基づく、新しい拡散モデルである。
エッジのサブセットを選択することで、SparseDiffは、ノイズ発生過程とノイズ発生ネットワーク内のスパースグラフ表現を効果的に活用する。
本モデルでは,小規模・大規模両方のデータセットにおいて,複数のメトリクスにわたる最先端性能を示す。
論文 参考訳(メタデータ) (2023-11-03T16:50:26Z) - Deep Prompt Tuning for Graph Transformers [55.2480439325792]
ファインチューニングはリソース集約型であり、大きなモデルのコピーを複数保存する必要がある。
ファインチューニングの代替として,ディープグラフプロンプトチューニングと呼ばれる新しい手法を提案する。
事前学習したパラメータを凍結し、追加したトークンのみを更新することにより、フリーパラメータの数を減らし、複数のモデルコピーを不要にする。
論文 参考訳(メタデータ) (2023-09-18T20:12:17Z) - UniG-Encoder: A Universal Feature Encoder for Graph and Hypergraph Node
Classification [6.977634174845066]
グラフおよびハイパーグラフ表現学習のための普遍的特徴エンコーダ(UniG-Encoder)が設計されている。
アーキテクチャは、連結ノードのトポロジ的関係をエッジやハイパーエッジに前方変換することから始まる。
符号化されたノードの埋め込みは、投影行列の変換によって記述された逆変換から導かれる。
論文 参考訳(メタデータ) (2023-08-03T09:32:50Z) - Discrete Graph Auto-Encoder [52.50288418639075]
離散グラフオートエンコーダ(DGAE)という新しいフレームワークを導入する。
まず、置換同変オートエンコーダを用いてグラフを離散潜在ノード表現の集合に変換する。
2番目のステップでは、離散潜在表現の集合をソートし、特別に設計された自己回帰モデルを用いてそれらの分布を学習する。
論文 参考訳(メタデータ) (2023-06-13T12:40:39Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - Gransformer: Transformer-based Graph Generation [14.161975556325796]
Gransformerは、グラフを生成するためのTransformerに基づくアルゴリズムである。
我々は、与えられたグラフの構造情報を利用するためにTransformerエンコーダを変更する。
また、ノードペア間のグラフベースの親しみ度尺度も導入する。
論文 参考訳(メタデータ) (2022-03-25T14:05:12Z) - Accurate Learning of Graph Representations with Graph Multiset Pooling [45.72542969364438]
本稿では,その構造的依存関係に応じてノード間の相互作用をキャプチャするグラフマルチセットトランス (GMT) を提案する。
実験の結果,GMTはグラフ分類ベンチマークにおいて,最先端のグラフプーリング法を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-02-23T07:45:58Z) - Inverse Graph Identification: Can We Identify Node Labels Given Graph
Labels? [89.13567439679709]
グラフ識別(GI)は、グラフ学習において長い間研究されており、特定の応用において不可欠である。
本稿では,逆グラフ識別(Inverse Graph Identification, IGI)と呼ばれる新しい問題を定義する。
本稿では,グラフアテンションネットワーク(GAT)を用いたノードレベルのメッセージパッシング処理を,GIのプロトコルの下でシンプルかつ効果的に行う方法を提案する。
論文 参考訳(メタデータ) (2020-07-12T12:06:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。