論文の概要: Graph Sequential Network for Reasoning over Sequences
- arxiv url: http://arxiv.org/abs/2004.02001v1
- Date: Sat, 4 Apr 2020 19:18:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 22:34:12.454276
- Title: Graph Sequential Network for Reasoning over Sequences
- Title(参考訳): シーケンス上の推論のためのグラフシーケンスネットワーク
- Authors: Ming Tu, Jing Huang, Xiaodong He, Bowen Zhou
- Abstract要約: シーケンスから構築されたグラフよりも推論が必要な場合を考える。
既存のGNNモデルは、まずノード列を固定次元ベクトルに要約し、次にこれらのベクトルにGNNを適用することで、この目標を達成する。
本稿では,グラフシーケンスネットワーク(GSN)と呼ばれる新しいタイプのGNNを提案する。
- 参考スコア(独自算出の注目度): 38.766982479196926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently Graph Neural Network (GNN) has been applied successfully to various
NLP tasks that require reasoning, such as multi-hop machine reading
comprehension. In this paper, we consider a novel case where reasoning is
needed over graphs built from sequences, i.e. graph nodes with sequence data.
Existing GNN models fulfill this goal by first summarizing the node sequences
into fixed-dimensional vectors, then applying GNN on these vectors. To avoid
information loss inherent in the early summarization and make sequential
labeling tasks on GNN output feasible, we propose a new type of GNN called
Graph Sequential Network (GSN), which features a new message passing algorithm
based on co-attention between a node and each of its neighbors. We validate the
proposed GSN on two NLP tasks: interpretable multi-hop reading comprehension on
HotpotQA and graph based fact verification on FEVER. Both tasks require
reasoning over multiple documents or sentences. Our experimental results show
that the proposed GSN attains better performance than the standard GNN based
methods.
- Abstract(参考訳): 近年,マルチホップ機械読解などの推論を必要とする様々なNLPタスクに対して,グラフニューラルネットワーク(GNN)が成功している。
本稿では,シーケンスから構築したグラフ,すなわちシーケンスデータを持つグラフノード上で推論が必要な新しいケースについて考察する。
既存のGNNモデルは、まずノード列を固定次元ベクトルに要約し、次にこれらのベクトルにGNNを適用することで、この目標を達成する。
初期要約に固有の情報損失を回避し、GNN出力の逐次ラベリングタスクを実現するため、ノードと各隣接ノードの共用に基づく新しいメッセージパッシングアルゴリズムを特徴とするグラフシーケンスネットワーク(GSN)と呼ばれる新しいタイプのGNNを提案する。
提案手法は,HotpotQA上でのマルチホップ読解理解とFEVER上でのグラフベース事実検証という2つのNLPタスクで検証する。
どちらのタスクも複数の文書や文の推論を必要とする。
実験の結果,提案したGSNは標準のGNN方式よりも優れた性能を示した。
関連論文リスト
- Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Geodesic Graph Neural Network for Efficient Graph Representation
Learning [34.047527874184134]
我々はGeodesic GNN(GDGNN)と呼ばれる効率的なGNNフレームワークを提案する。
ラベル付けなしでノード間の条件付き関係をモデルに注入する。
ジオデシック表現を前提としたGDGNNは、通常のGNNよりもはるかにリッチな構造情報を持つノード、リンク、グラフ表現を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T02:02:35Z) - Two-level Graph Neural Network [15.014364222532347]
2レベルGNN(TL-GNN)と呼ばれる新しいGNNフレームワークを提案する。
これは、サブグラフレベル情報とノードレベル情報とをマージする。
実験により、TL-GNNは既存のGNNよりも優れ、最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2022-01-03T02:15:20Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。