論文の概要: Are Message Passing Neural Networks Really Helpful for Knowledge Graph
Completion?
- arxiv url: http://arxiv.org/abs/2205.10652v3
- Date: Tue, 4 Jul 2023 02:41:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 00:23:25.156162
- Title: Are Message Passing Neural Networks Really Helpful for Knowledge Graph
Completion?
- Title(参考訳): メッセージパッシングニューラルネットワークは、知識グラフの補完に役立つか?
- Authors: Juanhui Li and Harry Shomer and Jiayuan Ding and Yiqi Wang and Yao Ma
and Neil Shah and Jiliang Tang and Dawei Yin
- Abstract要約: 単純なモデルでMPNNに匹敵する性能が得られることを示す。
評価関数と損失関数の設計がKGCモデルの性能に強い影響を与えることを示す。
- 参考スコア(独自算出の注目度): 49.858038034580005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge graphs (KGs) facilitate a wide variety of applications. Despite
great efforts in creation and maintenance, even the largest KGs are far from
complete. Hence, KG completion (KGC) has become one of the most crucial tasks
for KG research. Recently, considerable literature in this space has centered
around the use of Message Passing (Graph) Neural Networks (MPNNs), to learn
powerful embeddings. The success of these methods is naturally attributed to
the use of MPNNs over simpler multi-layer perceptron (MLP) models, given their
additional message passing (MP) component. In this work, we find that
surprisingly, simple MLP models are able to achieve comparable performance to
MPNNs, suggesting that MP may not be as crucial as previously believed. With
further exploration, we show careful scoring function and loss function design
has a much stronger influence on KGC model performance. This suggests a
conflation of scoring function design, loss function design, and MP in prior
work, with promising insights regarding the scalability of state-of-the-art KGC
methods today, as well as careful attention to more suitable MP designs for KGC
tasks tomorrow. Our codes are publicly available at:
https://github.com/Juanhui28/Are_MPNNs_helpful.
- Abstract(参考訳): 知識グラフ(KG)は様々な応用を促進する。
製造とメンテナンスに多大な努力をしてきたにもかかわらず、最大のkgも完成にはほど遠い。
したがって、KG完了(KGC)はKG研究において最も重要な課題の一つとなっている。
近年,メッセージパッシング(Graph)ニューラルネットワーク(MPNN)の活用を中心に,強力な埋め込み学習が盛んに行われている。
これらの手法の成功は、追加のメッセージパッシング(MP)コンポーネントを前提として、より単純な多層パーセプトロン(MLP)モデルよりもMPNNを使うことによる。
この研究で、驚くほど単純なMPPモデルでMPNNに匹敵する性能を達成できることがわかり、MPが以前信じられていたほど重要でない可能性が示唆された。
さらに,注意深いスコアリング機能を示し,損失関数の設計がkgcモデルの性能に大きく影響することを示した。
これは、現在最先端のKGCメソッドのスケーラビリティに関する将来的な洞察と、明日のKGCタスクに適したMP設計への注意を、事前作業におけるスコアリング関数設計、損失関数設計、MPの融合を示唆している。
私たちのコードは、https://github.com/Juanhui28/Are_MPNNs_helpful.comで公開されています。
関連論文リスト
- Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Sign is Not a Remedy: Multiset-to-Multiset Message Passing for Learning on Heterophilic Graphs [77.42221150848535]
我々は、Multiset to Multiset GNN(M2M-GNN)と呼ばれる新しいメッセージパッシング機能を提案する。
M2M-GNNは上述のSMPの限界を効果的に緩和し, 比較性能が向上することを示した。
論文 参考訳(メタデータ) (2024-05-31T07:39:22Z) - Schema First! Learn Versatile Knowledge Graph Embeddings by Capturing
Semantics with MASCHInE [3.174882428337821]
近年,知識グラフ埋め込みモデル (KGEMs) が注目されている。
本研究では,RDF/S情報を活用するKGの小型改良版であるプロトグラフを設計する。
学習されたプロトグラフベースの埋め込みは、KGのセマンティクスをカプセル化することを目的としており、KGEの学習に利用することができる。
論文 参考訳(メタデータ) (2023-06-06T13:22:54Z) - How does over-squashing affect the power of GNNs? [39.52168593457813]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ上での機械学習のための最先端モデルである。
与えられた容量のMPNNがどのノード特徴の関数クラスを学習できるかを決定するための厳密な分析を提供する。
一対のノード間の十分な通信を保証するために、MPNNの容量は十分大きすぎることを証明する。
論文 参考訳(メタデータ) (2023-06-06T11:15:53Z) - MLPInit: Embarrassingly Simple GNN Training Acceleration with MLP
Initialization [51.76758674012744]
大きなグラフ上でグラフニューラルネットワーク(GNN)をトレーニングするのは複雑で、非常に時間がかかる。
我々は、PeerInitと呼ばれるGNNトレーニングアクセラレーションに対して、恥ずかしく単純だが非常に効果的な方法を提案する。
論文 参考訳(メタデータ) (2022-09-30T21:33:51Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - MEKER: Memory Efficient Knowledge Embedding Representation for Link
Prediction and Question Answering [65.62309538202771]
知識グラフ(KG)は、事実を象徴的に構造化した記憶装置である。
KG埋め込みには、実世界の暗黙的な情報を必要とするNLPタスクで使用される簡潔なデータが含まれている。
リンク予測タスクとKGに基づく質問応答においてSOTAに比較可能な性能をもたらすメモリ効率のよいKG埋め込みモデルを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:47:03Z) - Boosting Graph Neural Networks by Injecting Pooling in Message Passing [4.952681349410351]
オーバースムーシングを防止するために,新しい,適応可能な,強力なMPフレームワークを提案する。
我々の両側MPは、ノードのクラス情報を利用して、ペアワイズなモジュラー勾配を推定する。
5つの中規模ベンチマークデータセットの実験から、二値MPは過度なスムーシングを緩和することで性能を向上させることが示されている。
論文 参考訳(メタデータ) (2022-02-08T08:21:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。