論文の概要: Beyond Completion: A Foundation Model for General Knowledge Graph Reasoning
- arxiv url: http://arxiv.org/abs/2505.21926v1
- Date: Wed, 28 May 2025 03:21:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.392068
- Title: Beyond Completion: A Foundation Model for General Knowledge Graph Reasoning
- Title(参考訳): Beyond Completion: 一般知識グラフ推論の基礎モデル
- Authors: Yin Hua, Zhiqiang Liu, Mingyang Chen, Zheng Fang, Chi Man Wong, Lingxiao Li, Chi Man Vong, Huajun Chen, Wen Zhang,
- Abstract要約: MERRYは一般知識グラフ推論の基礎モデルである。
テキストと構造的モダリティのギャップを埋めるためのアーキテクチャを符号化する条件付きメッセージパッシング(CMP)を提案する。
28のデータセットに対する総合的な評価は、ほとんどのシナリオでMERRYが既存のベースラインを上回っていることを示している。
- 参考スコア(独自算出の注目度): 42.93788746991493
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In natural language processing (NLP) and computer vision (CV), the successful application of foundation models across diverse tasks has demonstrated their remarkable potential. However, despite the rich structural and textual information embedded in knowledge graphs (KGs), existing research of foundation model for KG has primarily focused on their structural aspects, with most efforts restricted to in-KG tasks (e.g., knowledge graph completion, KGC). This limitation has hindered progress in addressing more challenging out-of-KG tasks. In this paper, we introduce MERRY, a foundation model for general knowledge graph reasoning, and investigate its performance across two task categories: in-KG reasoning tasks (e.g., KGC) and out-of-KG tasks (e.g., KG question answering, KGQA). We not only utilize the structural information, but also the textual information in KGs. Specifically, we propose a multi-perspective Conditional Message Passing (CMP) encoding architecture to bridge the gap between textual and structural modalities, enabling their seamless integration. Additionally, we introduce a dynamic residual fusion module to selectively retain relevant textual information and a flexible edge scoring mechanism to adapt to diverse downstream tasks. Comprehensive evaluations on 28 datasets demonstrate that MERRY outperforms existing baselines in most scenarios, showcasing strong reasoning capabilities within KGs and excellent generalization to out-of-KG tasks such as KGQA.
- Abstract(参考訳): 自然言語処理(NLP)とコンピュータビジョン(CV)では、様々なタスクにまたがる基礎モデルの応用が成功し、その大きな可能性を示している。
しかしながら、知識グラフ(KG)に埋め込まれた豊富な構造的およびテキスト的情報にもかかわらず、KGの基盤モデルに関する既存の研究は主に構造的側面に焦点を当てており、ほとんどの取り組みはKG内タスク(例えば知識グラフ補完、KGC)に限定されている。
この制限は、より困難なKGタスクに対処する進捗を妨げている。
本稿では,一般知識グラフ推論の基礎モデルであるMERRYを紹介し,KG内推論タスク(例えば,KGC)とKG外推論タスク(例えば,KG質問応答,KGQA)の2つのタスクカテゴリにおいて,その性能について検討する。
我々は構造情報だけでなく、KGのテキスト情報も活用している。
具体的には,マルチパースペクティブ・コンディショナル・メッセージ・パッシング (CMP) を用いて,テキストと構造的モダリティのギャップを埋め,シームレスな統合を可能にするアーキテクチャを提案する。
さらに、関連するテキスト情報を選択的に保持する動的残差融合モジュールと、多様な下流タスクに適応するための柔軟なエッジスコアリング機構を導入する。
28のデータセットに対する総合的な評価は、MERRYが既存のベースラインをほとんどのシナリオで上回り、KG内での強力な推論能力を示し、KGQAのような非KGタスクへの優れた一般化を示すことを示している。
関連論文リスト
- GLTW: Joint Improved Graph Transformer and LLM via Three-Word Language for Knowledge Graph Completion [52.026016846945424]
我々は、KGの構造情報をエンコードし、それを大規模言語モデルにマージするGLTWと呼ばれる新しい手法を提案する。
具体的には、局所構造情報とグローバル構造情報の両方を効果的に符号化する改良されたグラフ変換器(iGT)を導入する。
また,KG内のすべてのエンティティを分類対象として用いたサブグラフに基づく多分類学習目標を開発し,学習効率を向上する。
論文 参考訳(メタデータ) (2025-02-17T06:02:59Z) - Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - A Prompt-Based Knowledge Graph Foundation Model for Universal In-Context Reasoning [17.676185326247946]
そこで本研究では,テキスト内学習,すなわちKG-ICLを介し,プロンプトに基づくKGファウンデーションモデルを提案する。
クエリにおけるエンティティや関係を発見できないような一般化機能を備えたプロンプトグラフを符号化するために,まず統一トークン化器を提案する。
そこで我々は,プロンプトエンコーディングとKG推論を行う2つのメッセージパッシングニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-10-16T06:47:18Z) - Context Graph [8.02985792541121]
本稿では,大規模言語モデル(LLM)を活用して候補エンティティや関連するコンテキストを検索する,コンテキストグラフ推論のtextbfCGR$3$パラダイムを提案する。
実験の結果、CGR$3$はKG完了(KGC)およびKG質問応答(KGQA)タスクの性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-06-17T02:59:19Z) - KG-GPT: A General Framework for Reasoning on Knowledge Graphs Using
Large Language Models [18.20425100517317]
本稿では,知識グラフを用いたタスクに対して,大規模言語モデルを活用するフレームワークであるKG-GPTを提案する。
KG-GPTは文の分割、関連するグラフコンポーネントの検索、論理的結論の導出という3つのステップから構成される。
KGベースの事実検証とKGQAベンチマークを用いてKG-GPTを評価する。
論文 参考訳(メタデータ) (2023-10-17T12:51:35Z) - Reasoning over Multi-view Knowledge Graphs [59.99051368907095]
ROMAは、マルチビューKG上で論理クエリに応答する新しいフレームワークである。
大規模(数百万の事実など)のKGや粒度の細かいビューまでスケールする。
トレーニング中に観測されていない構造やKGビューのクエリを一般化する。
論文 参考訳(メタデータ) (2022-09-27T21:32:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。