論文の概要: Context Graph
- arxiv url: http://arxiv.org/abs/2406.11160v3
- Date: Fri, 28 Jun 2024 03:20:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 19:11:01.325396
- Title: Context Graph
- Title(参考訳): コンテキストグラフ
- Authors: Chengjin Xu, Muzhi Li, Cehao Yang, Xuhui Jiang, Lumingyuan Tang, Yiyan Qi, Jian Guo,
- Abstract要約: 本稿では,大規模言語モデル(LLM)を活用して候補エンティティや関連するコンテキストを検索する,コンテキストグラフ推論のtextbfCGR$3$パラダイムを提案する。
実験の結果、CGR$3$はKG完了(KGC)およびKG質問応答(KGQA)タスクの性能を著しく向上させることが示された。
- 参考スコア(独自算出の注目度): 8.02985792541121
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Knowledge Graphs (KGs) are foundational structures in many AI applications, representing entities and their interrelations through triples. However, triple-based KGs lack the contextual information of relational knowledge, like temporal dynamics and provenance details, which are crucial for comprehensive knowledge representation and effective reasoning. Instead, \textbf{Context Graphs} (CGs) expand upon the conventional structure by incorporating additional information such as time validity, geographic location, and source provenance. This integration provides a more nuanced and accurate understanding of knowledge, enabling KGs to offer richer insights and support more sophisticated reasoning processes. In this work, we first discuss the inherent limitations of triple-based KGs and introduce the concept of CGs, highlighting their advantages in knowledge representation and reasoning. We then present a context graph reasoning \textbf{CGR$^3$} paradigm that leverages large language models (LLMs) to retrieve candidate entities and related contexts, rank them based on the retrieved information, and reason whether sufficient information has been obtained to answer a query. Our experimental results demonstrate that CGR$^3$ significantly improves performance on KG completion (KGC) and KG question answering (KGQA) tasks, validating the effectiveness of incorporating contextual information on KG representation and reasoning.
- Abstract(参考訳): 知識グラフ(KG)は多くのAIアプリケーションの基本構造であり、エンティティと三重項による相互関係を表す。
しかし、3重ベースKGは、包括的な知識表現と効果的な推論に不可欠である時間的ダイナミクスや前駆的詳細といった、関係知識の文脈的な情報を欠いている。
代わりに \textbf{Context Graphs} (CGs) は、時間的妥当性、地理的な位置、および出典の出典などの追加情報を統合することで、従来の構造に拡張する。
この統合により、知識のより微妙で正確な理解が得られ、KGはより豊かな洞察を提供し、より洗練された推論プロセスをサポートすることができる。
本稿ではまず,三重化KGの本質的限界について論じ,知識表現と推論の優位性を強調したCGの概念を紹介した。
次に、大言語モデル(LLM)を利用して、候補エンティティと関連するコンテキストを検索し、検索した情報に基づいてそれらをランク付けし、クエリに答えるために十分な情報が得られたかどうかを判断するコンテキストグラフ推論手法を提案する。
実験の結果、CGR$^3$はKG完了(KGC)およびKG質問応答(KGQA)タスクの性能を著しく向上させ、文脈情報をKG表現と推論に組み込むことの有効性を検証した。
関連論文リスト
- Grounding LLM Reasoning with Knowledge Graphs [4.279373869671241]
我々は、知識グラフと推論戦略を統合することで、KGデータにおける推論チェーンのすべてのステップまたは"思想"をアンカーする。
我々は,Chain-of-Thought (CoT), Tree-of-Thought (ToT), Graph-of-Thought (GoT) など,いくつかの推論手法によるエージェント検索と自動検索の両方を評価した。
我々の実験は、このアプローチがベースラインモデルより一貫して優れていることを示した。
論文 参考訳(メタデータ) (2025-02-18T19:20:46Z) - How to Mitigate Information Loss in Knowledge Graphs for GraphRAG: Leveraging Triple Context Restoration and Query-Driven Feedback [12.250007669492753]
本稿では,Triple Context RestorationとQuery-driven Feedbackフレームワークを提案する。
情報損失を軽減するために、各トリプルの基盤となるテキストコンテキストを再構築する。
Exact Matchの29.1%の改善とF1の15.5%の改善を実現している。
論文 参考訳(メタデータ) (2025-01-26T03:27:11Z) - Ontology-grounded Automatic Knowledge Graph Construction by LLM under Wikidata schema [60.42231674887294]
本稿では,Large Language Models (LLMs) を用いた知識グラフ構築のためのオントロジー的アプローチを提案する。
我々は、一貫性と解釈可能性を確保するために、抽出された関係に基づいて、著者によるオントロジーによるKGの基底生成を行う。
我々の研究は、人間の介入を最小限に抑えたスケーラブルなKG建設パイプラインの実現に向けて有望な方向を示し、高品質で人間に解釈可能なKGを生み出す。
論文 参考訳(メタデータ) (2024-12-30T13:36:05Z) - Graph-constrained Reasoning: Faithful Reasoning on Knowledge Graphs with Large Language Models [83.28737898989694]
大規模言語モデル(LLM)は知識ギャップと幻覚のために忠実な推論に苦しむ。
グラフ制約推論(GCR)は、KGにおける構造的知識とLLMにおける非構造的推論を橋渡しする新しいフレームワークである。
GCRは最先端のパフォーマンスを達成し、追加のトレーニングをすることなく、見えないKGに対して強力なゼロショット一般化性を示す。
論文 参考訳(メタデータ) (2024-10-16T22:55:17Z) - A Prompt-Based Knowledge Graph Foundation Model for Universal In-Context Reasoning [17.676185326247946]
そこで本研究では,テキスト内学習,すなわちKG-ICLを介し,プロンプトに基づくKGファウンデーションモデルを提案する。
クエリにおけるエンティティや関係を発見できないような一般化機能を備えたプロンプトグラフを符号化するために,まず統一トークン化器を提案する。
そこで我々は,プロンプトエンコーディングとKG推論を行う2つのメッセージパッシングニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-10-16T06:47:18Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Knowledge Graphs and Pre-trained Language Models enhanced Representation Learning for Conversational Recommender Systems [58.561904356651276]
本稿では,対話型推薦システムのためのエンティティの意味理解を改善するために,知識強化型エンティティ表現学習(KERL)フレームワークを紹介する。
KERLは知識グラフと事前訓練された言語モデルを使用して、エンティティの意味的理解を改善する。
KERLはレコメンデーションとレスポンス生成の両方のタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-18T06:41:23Z) - Collaborative Knowledge Graph Fusion by Exploiting the Open Corpus [59.20235923987045]
知識表現の質を維持しながら、新たに収穫した3倍の知識グラフを豊かにすることは困難である。
本稿では,付加コーパスから得られる情報を用いてKGを精製するシステムを提案する。
論文 参考訳(メタデータ) (2022-06-15T12:16:10Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - Relational Learning Analysis of Social Politics using Knowledge Graph
Embedding [11.978556412301975]
本稿では,新しい信頼性ドメインベースのKG埋め込みフレームワークを提案する。
ヘテロジニアスリソースから得られたデータの融合を、ドメインによって表現された正式なKG表現にキャプチャする。
このフレームワークは、データ品質と信頼性を保証するための信頼性モジュールも具体化している。
論文 参考訳(メタデータ) (2020-06-02T14:10:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。