論文の概要: REFACTOR GNNS: Revisiting Factorisation-based Models from a
Message-Passing Perspective
- arxiv url: http://arxiv.org/abs/2207.09980v1
- Date: Wed, 20 Jul 2022 15:39:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 12:31:16.174013
- Title: REFACTOR GNNS: Revisiting Factorisation-based Models from a
Message-Passing Perspective
- Title(参考訳): ReFACTOR GNNS: メッセージパッシングの観点からの因子化モデルの再検討
- Authors: Yihong Chen, Pushkar Mishra, Luca Franceschi, Pasquale Minervini,
Pontus Stenetorp, Sebastian Riedel
- Abstract要約: 本稿では、ReFACTOR GNNSを提案することにより、因子モデル(FM)とグラフニューラルネットワーク(GNN)のギャップを埋める。
我々は、勾配降下手順をメッセージパッシング操作として再構成することにより、FMをGNNとしてキャストする方法を示す。
我々のREFACTOR GNNSは、FMに匹敵するトランスダクティブ性能と最先端のインダクティブ性能を実現し、パラメータの桁数を桁違いに減らした。
- 参考スコア(独自算出の注目度): 42.845783579293
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Factorisation-based Models (FMs), such as DistMult, have enjoyed enduring
success for Knowledge Graph Completion (KGC) tasks, often outperforming Graph
Neural Networks (GNNs). However, unlike GNNs, FMs struggle to incorporate node
features and to generalise to unseen nodes in inductive settings. Our work
bridges the gap between FMs and GNNs by proposing REFACTOR GNNS. This new
architecture draws upon both modelling paradigms, which previously were largely
thought of as disjoint. Concretely, using a message-passing formalism, we show
how FMs can be cast as GNNs by reformulating the gradient descent procedure as
message-passing operations, which forms the basis of our REFACTOR GNNS. Across
a multitude of well-established KGC benchmarks, our REFACTOR GNNS achieve
comparable transductive performance to FMs, and state-of-the-art inductive
performance while using an order of magnitude fewer parameters.
- Abstract(参考訳): DistMultのようなファクトライゼーションベースのモデル(FM)は、知識グラフ補完(KGC)タスクの持続的な成功を享受し、しばしばグラフニューラルネットワーク(GNN)を上回っている。
しかし、GNNとは異なり、FMはノード機能を組み込むのに苦労し、インダクティブな設定で見えないノードに一般化する。
我々の研究は、ReFACTOR GNNSを提案し、FMとGNNのギャップを埋める。
この新しいアーキテクチャは、かつては相容れないと考えられていた両方のモデリングパラダイムに基づいている。
具体的には、メッセージパッシング形式を用いて、勾配降下手順をメッセージパッシング操作として再構成することにより、FMをGNNとしてキャストする方法を示す。
多数の確立されたKGCベンチマークの中で、我々のREFACTOR GNNSはFMに匹敵するトランスダクティブ性能と最先端のインダクティブ性能を実現し、パラメータの桁数を桁違いに減らした。
関連論文リスト
- Classic GNNs are Strong Baselines: Reassessing GNNs for Node Classification [7.14327815822376]
グラフトランスフォーマー(GT)は、従来のグラフニューラルネットワーク(GNN)の代替として人気がある。
本稿では,GTに対する3つの古典的GNNモデル(GCN, GAT, GraphSAGE)の性能を再評価する。
論文 参考訳(メタデータ) (2024-06-13T10:53:33Z) - LOGIN: A Large Language Model Consulted Graph Neural Network Training Framework [30.54068909225463]
我々は,GNN設計プロセスの合理化とLarge Language Models(LLM)の利点を活用して,下流タスクにおけるGNNの性能向上を目指す。
我々は,LLMs-as-Consultants(LLMs-as-Consultants)という新たなパラダイムを策定し,LLMとGNNを対話的に統合する。
両グラフのノード分類におけるLOGINの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2024-05-22T18:17:20Z) - Unleashing the potential of GNNs via Bi-directional Knowledge Transfer [58.64807174714959]
Bi-directional Knowledge Transfer (BiKT) は、オリジナルのアーキテクチャを変更することなく、機能変換操作の可能性を解き放つためのプラグイン・アンド・プレイ方式である。
BiKTはオリジナルのGNNよりも0.5%-4%パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-10-26T04:11:49Z) - FRGNN: Mitigating the Impact of Distribution Shift on Graph Neural
Networks via Test-Time Feature Reconstruction [13.21683198528012]
分散シフトはグラフニューラルネットワーク(GNN)のテスト性能に悪影響を及ぼす可能性がある
特徴再構成を行うための汎用フレームワークFR-GNNを提案する。
特に、再構成されたノード機能は、よく訓練されたモデルをテストするために直接利用することができる。
論文 参考訳(メタデータ) (2023-08-18T02:34:37Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - MGDCF: Distance Learning via Markov Graph Diffusion for Neural
Collaborative Filtering [96.65234340724237]
現状のGNNベースCFモデルとコンテキスト符号化に基づく従来の1層NRLモデルとの等価性を示す。
マルコフグラフ拡散協調フィルタ (MGDCF) を用いて, 最先端のGNNベースCFモデルを一般化する。
論文 参考訳(メタデータ) (2022-04-05T17:24:32Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。