論文の概要: Beyond Textual Context: Structural Graph Encoding with Adaptive Space Alignment to alleviate the hallucination of LLMs
- arxiv url: http://arxiv.org/abs/2509.22251v1
- Date: Fri, 26 Sep 2025 12:14:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.410437
- Title: Beyond Textual Context: Structural Graph Encoding with Adaptive Space Alignment to alleviate the hallucination of LLMs
- Title(参考訳): テクスチュアルコンテキストを超えて:LLMの幻覚を軽減する適応空間アライメントを用いた構造グラフ符号化
- Authors: Yifang Zhang, Pengfei Duan, Yiwen Yang, Shengwu Xiong,
- Abstract要約: SSKG-LLMは、KGの構造情報を大規模言語モデルの推論プロセスに効率的に統合する革新的なモデルアーキテクチャである。
我々は、広範囲にわたる実験を行い、かつ、KGの構造情報を組み込むことによって、LLMの事実推論能力を高める方法について、詳細な分析を行う。
- 参考スコア(独自算出の注目度): 15.260879306368674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Currently, the main approach for Large Language Models (LLMs) to tackle the hallucination issue is incorporating Knowledge Graphs(KGs).However, LLMs typically treat KGs as plain text, extracting only semantic information and limiting their use of the crucial structural aspects of KGs. Another challenge is the gap between the embedding spaces of KGs encoders and LLMs text embeddings, which hinders the effective integration of structured knowledge. To overcome these obstacles, we put forward the SSKG-LLM, an innovative model architecture that is designed to efficiently integrate both the Structural and Semantic information of KGs into the reasoning processes of LLMs. SSKG-LLM incorporates the Knowledge Graph Retrieval (KGR) module and the Knowledge Graph Encoding (KGE) module to preserve semantics while utilizing structure. Then, the Knowledge Graph Adaptation (KGA) module is incorporated to enable LLMs to understand KGs embeddings. We conduct extensive experiments and provide a detailed analysis to explore how incorporating the structural information of KGs can enhance the factual reasoning abilities of LLMs. Our code are available at https://github.com/yfangZhang/SSKG-LLM.
- Abstract(参考訳): 現在、幻覚問題に取り組むためのLarge Language Models(LLMs)の主なアプローチは知識グラフ(KGs)の導入である。
しかし、LLMは一般的にKGをプレーンテキストとして扱い、意味情報のみを抽出し、KGの重要な構造的側面の使用を制限する。
もうひとつの課題は、構造化知識の効果的な統合を妨げる、KGsエンコーダの埋め込み空間とLLMsテキスト埋め込みのギャップである。
これらの障害を克服するために,我々は,KGの構造的情報と意味的情報の両方をLLMの推論プロセスに効率的に統合する,革新的なモデルアーキテクチャであるSSKG-LLMを提唱した。
SSKG-LLMには知識グラフ検索(KGR)モジュールと知識グラフ符号化(KGE)モジュールが組み込まれており、構造を利用して意味を保存できる。
次に、知識グラフ適応(KGA)モジュールが組み込まれ、LLMがKGの埋め込みを理解することができる。
我々は、広範囲にわたる実験を行い、かつ、KGの構造情報を組み込むことによって、LLMの事実推論能力を高める方法について、詳細な分析を行う。
私たちのコードはhttps://github.com/yfangZhang/SSKG-LLM.comで利用可能です。
関連論文リスト
- Knowledge Reasoning Language Model: Unifying Knowledge and Language for Inductive Knowledge Graph Reasoning [47.967495648005986]
我々は,LLM知識とKGコンテキストの統一的な協調を実現する知識推論言語モデル(KRLM)を提案する。
25個の実世界のインダクティブKGRデータセットの大規模な実験結果は、提案したKRLMの顕著な優位性を示している。
論文 参考訳(メタデータ) (2025-10-15T02:11:58Z) - Are Large Language Models Effective Knowledge Graph Constructors? [26.60279256406507]
知識グラフ(KG)は知識集約的なタスクに不可欠であり、大型言語モデル(LLM)における幻覚の低減に有望であることを示す。
本稿では,複数のレベルで情報を整理し,セマンティックにリッチで構造化されたKGの作成を可能にする階層的抽出フレームワークを提案する。
現状のLLMを用いて知識グラフを抽出・構築し,構造的・意味的両面から包括的に評価する。
論文 参考訳(メタデータ) (2025-10-13T11:37:48Z) - Enhancing Large Language Models with Reliable Knowledge Graphs [0.6345523830122166]
知識グラフは、検証された知識で大規模言語モデルを構築するための有望なソリューションを提供する。
それらのポテンシャルは、固有のノイズ、不完全性、およびそれらの剛性構造とLLMの柔軟な推論を統合する複雑さによって制約されている。
この論文は、信頼性の高いKGを精製し活用することによってLCMを強化する凝集フレームワークを通じて、これらの制限に対処する。
論文 参考訳(メタデータ) (2025-06-16T07:43:18Z) - ClaimPKG: Enhancing Claim Verification via Pseudo-Subgraph Generation with Lightweight Specialized LLM [3.864321514889099]
ClaimPKGは、LLM推論と知識グラフ(KG)からの構造化知識をシームレスに統合するエンドツーエンドフレームワークである。
ClaimPKGは最先端のパフォーマンスを達成し、複数のカテゴリで9%-12%の精度で高いベースラインを達成している。
論文 参考訳(メタデータ) (2025-05-28T16:34:14Z) - LightPROF: A Lightweight Reasoning Framework for Large Language Model on Knowledge Graph [57.382255728234064]
大きな言語モデル(LLM)は、テキスト理解とゼロショット推論において素晴らしい能力を持っている。
知識グラフ(KG)は、LLMの推論プロセスに対して、リッチで信頼性の高いコンテキスト情報を提供する。
我々は、KGQA(LightPROF)のための新しい軽量で効率的なPrompt Learning-ReasOning Frameworkを提案する。
論文 参考訳(メタデータ) (2025-04-04T03:03:47Z) - Enhancing Large Language Models (LLMs) for Telecommunications using Knowledge Graphs and Retrieval-Augmented Generation [52.8352968531863]
大規模言語モデル(LLM)は、汎用自然言語処理タスクにおいて大きな進歩を遂げている。
本稿では,知識グラフ(KG)と検索拡張生成(RAG)技術を組み合わせた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-31T15:58:08Z) - GLTW: Joint Improved Graph Transformer and LLM via Three-Word Language for Knowledge Graph Completion [52.026016846945424]
我々は、KGの構造情報をエンコードし、それを大規模言語モデルにマージするGLTWと呼ばれる新しい手法を提案する。
具体的には、局所構造情報とグローバル構造情報の両方を効果的に符号化する改良されたグラフ変換器(iGT)を導入する。
また,KG内のすべてのエンティティを分類対象として用いたサブグラフに基づく多分類学習目標を開発し,学習効率を向上する。
論文 参考訳(メタデータ) (2025-02-17T06:02:59Z) - Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - KG-RAG: Bridging the Gap Between Knowledge and Creativity [0.0]
大規模言語モデルエージェント(LMA)は、情報幻覚、破滅的な忘れ込み、長いコンテキストの処理における制限といった問題に直面している。
本稿では,LMAの知識能力を高めるため,KG-RAG (Knowledge Graph-Retrieval Augmented Generation)パイプラインを提案する。
ComplexWebQuestionsデータセットに関する予備実験では、幻覚的コンテンツの削減において顕著な改善が示されている。
論文 参考訳(メタデータ) (2024-05-20T14:03:05Z) - Large Language Models Can Better Understand Knowledge Graphs Than We Thought [13.336418752729987]
大規模言語モデル(LLM)の処理と知識グラフ(KG)の解釈について検討する。
リテラルレベルでは、様々な入力形式に対するLLMの好みを明らかにする。
注意分布レベルでは、これらの嗜好を駆動するメカニズムについて論じる。
論文 参考訳(メタデータ) (2024-02-18T10:44:03Z) - Making Large Language Models Perform Better in Knowledge Graph Completion [42.175953129260236]
大言語モデル(LLM)に基づく知識グラフ補完(KGC)は、LLMによるKGの欠落を予測することを目的としている。
本稿では,LLMに構造情報を組み込む手法について検討する。
論文 参考訳(メタデータ) (2023-10-10T14:47:09Z) - Unifying Large Language Models and Knowledge Graphs: A Roadmap [61.824618473293725]
大規模言語モデル(LLM)は、自然言語処理と人工知能の分野で新たな波を発生させている。
知識グラフ(KG)、ウィキペディア、フアプ(英語版)は、豊富な事実知識を明示的に記憶する構造化された知識モデルである。
論文 参考訳(メタデータ) (2023-06-14T07:15:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。