論文の概要: Learning Rule-Induced Subgraph Representations for Inductive Relation Prediction
- arxiv url: http://arxiv.org/abs/2408.07088v1
- Date: Fri, 9 Aug 2024 02:27:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 15:18:29.465134
- Title: Learning Rule-Induced Subgraph Representations for Inductive Relation Prediction
- Title(参考訳): 帰納的関係予測のための学習規則に基づく部分グラフ表現
- Authors: Tianyu Liu, Qitan Lv, Jie Wang, Shuling Yang, Hanzhu Chen,
- Abstract要約: 我々は,textbfRule-inductextbfEd textbfSubgraph representextbfTations を学習するために,新しいテクスティングルソースエッジワイドGNNモデルを提案する。
RESTは、Textitruleによって引き起こされるサブグラフ表現を学ぶための理論的サポートを備えた、シンプルで効果的なアプローチである。
- 参考スコア(独自算出の注目度): 7.265921857903076
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inductive relation prediction (IRP) -- where entities can be different during training and inference -- has shown great power for completing evolving knowledge graphs. Existing works mainly focus on using graph neural networks (GNNs) to learn the representation of the subgraph induced from the target link, which can be seen as an implicit rule-mining process to measure the plausibility of the target link. However, these methods cannot differentiate the target link and other links during message passing, hence the final subgraph representation will contain irrelevant rule information to the target link, which reduces the reasoning performance and severely hinders the applications for real-world scenarios. To tackle this problem, we propose a novel \textit{single-source edge-wise} GNN model to learn the \textbf{R}ule-induc\textbf{E}d \textbf{S}ubgraph represen\textbf{T}ations (\textbf{REST}), which encodes relevant rules and eliminates irrelevant rules within the subgraph. Specifically, we propose a \textit{single-source} initialization approach to initialize edge features only for the target link, which guarantees the relevance of mined rules and target link. Then we propose several RNN-based functions for \textit{edge-wise} message passing to model the sequential property of mined rules. REST is a simple and effective approach with theoretical support to learn the \textit{rule-induced subgraph representation}. Moreover, REST does not need node labeling, which significantly accelerates the subgraph preprocessing time by up to \textbf{11.66$\times$}. Experiments on inductive relation prediction benchmarks demonstrate the effectiveness of our REST. Our code is available at https://github.com/smart-lty/REST.
- Abstract(参考訳): 帰納的関係予測(IRP) -- トレーニングと推論の間にエンティティが異なる可能性がある -- は、進化する知識グラフを完成させる大きな力を示している。
既存の研究は主に、グラフニューラルネットワーク(GNN)を使用して、ターゲットリンクから誘導されるサブグラフの表現を学ぶことに焦点を当てている。
しかし、これらの手法は、メッセージパッシング中にターゲットリンクやその他のリンクを区別できないため、最終的なサブグラフ表現は、ターゲットリンクに無関係なルール情報を含むことになる。
この問題に対処するため,新しいGNNモデルを提案し,関連するルールを符号化し,サブグラフ内の無関係なルールを除去する。
具体的には,ターゲットリンクに対してのみエッジ機能を初期化するための‘textit{single-source}初期化アプローチを提案し,マイニングされたルールとターゲットリンクの関連性を保証する。
次に, マイニングされたルールの逐次特性をモデル化するために, メッセージパッシングのための RNN ベースの関数をいくつか提案する。
REST はシンプルで効果的なアプローチであり、理論的なサポートによって \textit{rule-induced subgraph representation} を学ぶことができます。
さらに、RESTはノードラベリングを必要としないため、サブグラフ前処理時間を最大でtextbf{11.66$\times$} まで大幅に高速化する。
帰納的関係予測ベンチマークの実験は、RESTの有効性を示しています。
私たちのコードはhttps://github.com/smart-lty/RESTで利用可能です。
関連論文リスト
- Enhanced Expressivity in Graph Neural Networks with Lanczos-Based Linear Constraints [7.605749412696919]
グラフニューラルネットワーク(GNN)はグラフ構造化データの処理に優れるが、リンク予測タスクでは性能が劣ることが多い。
グラフラプラシア行列の固有基底に誘導された部分グラフを埋め込むことによりGNNの表現性を高める新しい手法を提案する。
提案手法は,PubMedとOGBL-Vesselのデータセットから,5%と10%のデータしか必要とせず,20倍と10倍の高速化を実現する。
論文 参考訳(メタデータ) (2024-08-22T12:22:00Z) - Efficient Link Prediction via GNN Layers Induced by Negative Sampling [92.05291395292537]
リンク予測のためのグラフニューラルネットワーク(GNN)は、緩やかに2つの広いカテゴリに分けられる。
まず、Emphnode-wiseアーキテクチャは各ノードの個別の埋め込みをプリコンパイルし、後に単純なデコーダで結合して予測を行う。
第二に、エンフェッジワイド法は、ペアワイド関係の表現を強化するために、エッジ固有のサブグラフ埋め込みの形成に依存している。
論文 参考訳(メタデータ) (2023-10-14T07:02:54Z) - ConGraT: Self-Supervised Contrastive Pretraining for Joint Graph and Text Embeddings [20.25180279903009]
テキスト分散グラフ(TAG)におけるテキストとノードの分離表現を共同学習するためのContrastive Graph-Text Pretraining(ConGraT)を提案する。
提案手法は言語モデル(LM)とグラフニューラルネットワーク(GNN)を訓練し,CLIPにインスパイアされたバッチワイドコントラスト学習目標を用いて,それらの表現を共通の潜在空間に整列させる。
実験により、ConGraTは、ノードとテキストのカテゴリ分類、リンク予測、言語モデリングなど、さまざまな下流タスクのベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-23T17:53:30Z) - Rethinking Explaining Graph Neural Networks via Non-parametric Subgraph
Matching [68.35685422301613]
そこで我々はMatchExplainerと呼ばれる新しい非パラメトリックな部分グラフマッチングフレームワークを提案し、説明的部分グラフを探索する。
ターゲットグラフと他のインスタンスを結合し、ノードに対応する距離を最小化することで最も重要な結合部分構造を識別する。
合成および実世界のデータセットの実験は、最先端のパラメトリックベースラインをかなりのマージンで上回り、MatchExplainerの有効性を示す。
論文 参考訳(メタデータ) (2023-01-07T05:14:45Z) - Graph Neural Networks for Link Prediction with Subgraph Sketching [15.808095529382138]
ELPH(Efficient Link Prediction with Hashing)と呼ばれる新しいフルグラフGNNを提案する。
SGNNのキーコンポーネントを明示的なサブグラフ構成なしで近似するために、サブグラフのスケッチをメッセージとして渡す。
多くの標準LPベンチマークで既存のSGNNモデルより優れており、桁違いに高速である。
論文 参考訳(メタデータ) (2022-09-30T14:20:07Z) - Personalized Subgraph Federated Learning [56.52903162729729]
本稿では,新たなサブグラフFL問題,パーソナライズされたサブグラフFLを導入する。
本稿では,Federated Personalized sUBgraph Learning (FED-PUB)を提案する。
オーバーラップしないサブグラフとオーバーラップするサブグラフの両方を考慮して,FED-PUBのサブグラフFL性能を6つのデータセットで検証した。
論文 参考訳(メタデータ) (2022-06-21T09:02:53Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - InsertGNN: Can Graph Neural Networks Outperform Humans in TOEFL Sentence
Insertion Problem? [66.70154236519186]
センテンス挿入は繊細だが基本的なNLP問題である。
文順序付け、テキストコヒーレンス、質問応答(QA)の現在のアプローチは、その解決には適さない。
本稿では,この問題をグラフとして表現し,グラフニューラルネットワーク(GNN)を用いて文間の関係を学習するモデルであるInsertGNNを提案する。
論文 参考訳(メタデータ) (2021-03-28T06:50:31Z) - Towards Efficient Scene Understanding via Squeeze Reasoning [71.1139549949694]
我々はSqueeze Reasoningと呼ばれる新しいフレームワークを提案する。
空間地図上の情報を伝播するのではなく、まず入力特徴をチャネルワイドなグローバルベクトルに絞ることを学ぶ。
提案手法はエンドツーエンドのトレーニングブロックとしてモジュール化可能であり,既存のネットワークに簡単に接続可能であることを示す。
論文 参考訳(メタデータ) (2020-11-06T12:17:01Z) - NENET: An Edge Learnable Network for Link Prediction in Scene Text [1.815512110340033]
ノードとエッジの両方を学習できる新しいグラフニューラルネットワーク(GNN)アーキテクチャを提案する。
我々は、よく知られたSynthTextデータセットに概念を示し、最先端の手法と比較してトップ結果を達成する。
論文 参考訳(メタデータ) (2020-05-25T14:47:16Z) - Gossip and Attend: Context-Sensitive Graph Representation Learning [0.5493410630077189]
グラフ表現学習(GRL)は、高次元かつしばしばスパースグラフの低次元ベクトル表現を学習する強力な手法である。
本稿では,Gossip通信にインスパイアされた文脈依存型アルゴリズムGOATと,グラフの構造上の相互注意機構を提案する。
論文 参考訳(メタデータ) (2020-03-30T18:23:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。