論文の概要: Are Graph Neural Networks Really Helpful for Knowledge Graph Completion?
- arxiv url: http://arxiv.org/abs/2205.10652v1
- Date: Sat, 21 May 2022 18:14:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-05 10:15:10.019737
- Title: Are Graph Neural Networks Really Helpful for Knowledge Graph Completion?
- Title(参考訳): グラフニューラルネットワークはナレッジグラフ補完に本当に役立つのか?
- Authors: Juanhui Li and Harry Shomer and Jiayuan Ding and Yiqi Wang and Yao Ma
and Neil Shah and Jiliang Tang and Dawei Yin
- Abstract要約: 単純なモデルでグラフニューラルネットワーク(GNN)に匹敵する性能が得られることを示す。
これは、アグリゲーションが以前信じられていたほど重要でないことを示唆している。
これは、先行作業におけるスコアリング関数設計、損失関数設計、集約の融合を示唆している。
- 参考スコア(独自算出の注目度): 49.858038034580005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge graphs (KGs) facilitate a wide variety of applications due to their
ability to store relational knowledge applicable to many areas. Despite great
efforts invested in creation and maintenance, even the largest KGs are far from
complete. Hence, KG completion (KGC) has become one of the most crucial tasks
for KG research. Recently, considerable literature in this space has centered
around the use of Graph Neural Networks (GNNs) to learn powerful embeddings
which leverage topological structures in the KGs. Specifically, dedicated
efforts have been made to extend GNNs, which are commonly designed for simple
homogeneous and uni-relational graphs, to the KG context which has diverse and
multi-relational connections between entities, by designing more complex
aggregation schemes over neighboring nodes (crucial to GNN performance) to
appropriately leverage multi-relational information. The success of these
methods is naturally attributed to the use of GNNs over simpler multi-layer
perceptron (MLP) models, owing to their additional aggregation functionality.
In this work, we find that surprisingly, simple MLP models are able to achieve
comparable performance to GNNs, suggesting that aggregation may not be as
crucial as previously believed. With further exploration, we show careful
scoring function and loss function design has a much stronger influence on KGC
model performance, and aggregation is not practically required. This suggests a
conflation of scoring function design, loss function design, and aggregation in
prior work, with promising insights regarding the scalability of
state-of-the-art KGC methods today, as well as careful attention to more
suitable aggregation designs for KGC tasks tomorrow.
- Abstract(参考訳): 知識グラフ(KG)は、多くの分野に適用可能な関係知識を格納できるため、幅広い応用を促進する。
製造とメンテナンスに多大な努力を払ったにもかかわらず、最大のkgも完成にはほど遠い。
したがって、KG完了(KGC)はKG研究において最も重要な課題の一つとなっている。
近年、この領域におけるかなりの文献は、KGのトポロジ的構造を利用する強力な埋め込みを学習するためのグラフニューラルネットワーク(GNN)の利用を中心にしている。
具体的には、GNNを単純な等質グラフと一様関係グラフのために設計し、近隣ノード(GNNの性能に重要な)上でより複雑な集約スキームを設計し、複数の関係情報を適切に活用することで、エンティティ間の多元的および多元的関係を持つKGコンテキストに拡張する努力がなされている。
これらの手法の成功は、単純な多層パーセプトロン(MLP)モデルよりもGNNを使うことによるものである。
この研究で、驚くほど単純なMLPモデルでGNNに匹敵する性能を達成できることが判明し、アグリゲーションが以前信じられていたほど重要でない可能性が示唆された。
さらに,注意深いスコアリング機能と損失関数の設計がkgcモデルの性能に大きく影響し,アグリゲーションは実際には必要ではないことを示す。
これは、現在最先端のKGC手法のスケーラビリティに関する将来的な洞察と、明日のKGCタスクに適した集約設計に注意を払って、事前作業におけるスコアリング関数設計、損失関数設計、集約の融合を示唆している。
関連論文リスト
- Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Sign is Not a Remedy: Multiset-to-Multiset Message Passing for Learning on Heterophilic Graphs [77.42221150848535]
我々は、Multiset to Multiset GNN(M2M-GNN)と呼ばれる新しいメッセージパッシング機能を提案する。
M2M-GNNは上述のSMPの限界を効果的に緩和し, 比較性能が向上することを示した。
論文 参考訳(メタデータ) (2024-05-31T07:39:22Z) - Schema First! Learn Versatile Knowledge Graph Embeddings by Capturing
Semantics with MASCHInE [3.174882428337821]
近年,知識グラフ埋め込みモデル (KGEMs) が注目されている。
本研究では,RDF/S情報を活用するKGの小型改良版であるプロトグラフを設計する。
学習されたプロトグラフベースの埋め込みは、KGのセマンティクスをカプセル化することを目的としており、KGEの学習に利用することができる。
論文 参考訳(メタデータ) (2023-06-06T13:22:54Z) - How does over-squashing affect the power of GNNs? [39.52168593457813]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ上での機械学習のための最先端モデルである。
与えられた容量のMPNNがどのノード特徴の関数クラスを学習できるかを決定するための厳密な分析を提供する。
一対のノード間の十分な通信を保証するために、MPNNの容量は十分大きすぎることを証明する。
論文 参考訳(メタデータ) (2023-06-06T11:15:53Z) - MLPInit: Embarrassingly Simple GNN Training Acceleration with MLP
Initialization [51.76758674012744]
大きなグラフ上でグラフニューラルネットワーク(GNN)をトレーニングするのは複雑で、非常に時間がかかる。
我々は、PeerInitと呼ばれるGNNトレーニングアクセラレーションに対して、恥ずかしく単純だが非常に効果的な方法を提案する。
論文 参考訳(メタデータ) (2022-09-30T21:33:51Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - MEKER: Memory Efficient Knowledge Embedding Representation for Link
Prediction and Question Answering [65.62309538202771]
知識グラフ(KG)は、事実を象徴的に構造化した記憶装置である。
KG埋め込みには、実世界の暗黙的な情報を必要とするNLPタスクで使用される簡潔なデータが含まれている。
リンク予測タスクとKGに基づく質問応答においてSOTAに比較可能な性能をもたらすメモリ効率のよいKG埋め込みモデルを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:47:03Z) - Boosting Graph Neural Networks by Injecting Pooling in Message Passing [4.952681349410351]
オーバースムーシングを防止するために,新しい,適応可能な,強力なMPフレームワークを提案する。
我々の両側MPは、ノードのクラス情報を利用して、ペアワイズなモジュラー勾配を推定する。
5つの中規模ベンチマークデータセットの実験から、二値MPは過度なスムーシングを緩和することで性能を向上させることが示されている。
論文 参考訳(メタデータ) (2022-02-08T08:21:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。