論文の概要: Beyond Textual Context: Structural Graph Encoding with Adaptive Space Alignment to alleviate the hallucination of LLMs
- arxiv url: http://arxiv.org/abs/2509.22251v1
- Date: Fri, 26 Sep 2025 12:14:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.410437
- Title: Beyond Textual Context: Structural Graph Encoding with Adaptive Space Alignment to alleviate the hallucination of LLMs
- Title(参考訳): テクスチュアルコンテキストを超えて:LLMの幻覚を軽減する適応空間アライメントを用いた構造グラフ符号化
- Authors: Yifang Zhang, Pengfei Duan, Yiwen Yang, Shengwu Xiong,
- Abstract要約: SSKG-LLMは、KGの構造情報を大規模言語モデルの推論プロセスに効率的に統合する革新的なモデルアーキテクチャである。
我々は、広範囲にわたる実験を行い、かつ、KGの構造情報を組み込むことによって、LLMの事実推論能力を高める方法について、詳細な分析を行う。
- 参考スコア(独自算出の注目度): 15.260879306368674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Currently, the main approach for Large Language Models (LLMs) to tackle the hallucination issue is incorporating Knowledge Graphs(KGs).However, LLMs typically treat KGs as plain text, extracting only semantic information and limiting their use of the crucial structural aspects of KGs. Another challenge is the gap between the embedding spaces of KGs encoders and LLMs text embeddings, which hinders the effective integration of structured knowledge. To overcome these obstacles, we put forward the SSKG-LLM, an innovative model architecture that is designed to efficiently integrate both the Structural and Semantic information of KGs into the reasoning processes of LLMs. SSKG-LLM incorporates the Knowledge Graph Retrieval (KGR) module and the Knowledge Graph Encoding (KGE) module to preserve semantics while utilizing structure. Then, the Knowledge Graph Adaptation (KGA) module is incorporated to enable LLMs to understand KGs embeddings. We conduct extensive experiments and provide a detailed analysis to explore how incorporating the structural information of KGs can enhance the factual reasoning abilities of LLMs. Our code are available at https://github.com/yfangZhang/SSKG-LLM.
- Abstract(参考訳): 現在、幻覚問題に取り組むためのLarge Language Models(LLMs)の主なアプローチは知識グラフ(KGs)の導入である。
しかし、LLMは一般的にKGをプレーンテキストとして扱い、意味情報のみを抽出し、KGの重要な構造的側面の使用を制限する。
もうひとつの課題は、構造化知識の効果的な統合を妨げる、KGsエンコーダの埋め込み空間とLLMsテキスト埋め込みのギャップである。
これらの障害を克服するために,我々は,KGの構造的情報と意味的情報の両方をLLMの推論プロセスに効率的に統合する,革新的なモデルアーキテクチャであるSSKG-LLMを提唱した。
SSKG-LLMには知識グラフ検索(KGR)モジュールと知識グラフ符号化(KGE)モジュールが組み込まれており、構造を利用して意味を保存できる。
次に、知識グラフ適応(KGA)モジュールが組み込まれ、LLMがKGの埋め込みを理解することができる。
我々は、広範囲にわたる実験を行い、かつ、KGの構造情報を組み込むことによって、LLMの事実推論能力を高める方法について、詳細な分析を行う。
私たちのコードはhttps://github.com/yfangZhang/SSKG-LLM.comで利用可能です。
関連論文リスト
- Enhancing Large Language Models with Reliable Knowledge Graphs [0.6345523830122166]
知識グラフは、検証された知識で大規模言語モデルを構築するための有望なソリューションを提供する。
それらのポテンシャルは、固有のノイズ、不完全性、およびそれらの剛性構造とLLMの柔軟な推論を統合する複雑さによって制約されている。
この論文は、信頼性の高いKGを精製し活用することによってLCMを強化する凝集フレームワークを通じて、これらの制限に対処する。
論文 参考訳(メタデータ) (2025-06-16T07:43:18Z) - GLTW: Joint Improved Graph Transformer and LLM via Three-Word Language for Knowledge Graph Completion [52.026016846945424]
我々は、KGの構造情報をエンコードし、それを大規模言語モデルにマージするGLTWと呼ばれる新しい手法を提案する。
具体的には、局所構造情報とグローバル構造情報の両方を効果的に符号化する改良されたグラフ変換器(iGT)を導入する。
また,KG内のすべてのエンティティを分類対象として用いたサブグラフに基づく多分類学習目標を開発し,学習効率を向上する。
論文 参考訳(メタデータ) (2025-02-17T06:02:59Z) - Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - KG-RAG: Bridging the Gap Between Knowledge and Creativity [0.0]
大規模言語モデルエージェント(LMA)は、情報幻覚、破滅的な忘れ込み、長いコンテキストの処理における制限といった問題に直面している。
本稿では,LMAの知識能力を高めるため,KG-RAG (Knowledge Graph-Retrieval Augmented Generation)パイプラインを提案する。
ComplexWebQuestionsデータセットに関する予備実験では、幻覚的コンテンツの削減において顕著な改善が示されている。
論文 参考訳(メタデータ) (2024-05-20T14:03:05Z) - Large Language Models Can Better Understand Knowledge Graphs Than We Thought [13.336418752729987]
大規模言語モデル(LLM)の処理と知識グラフ(KG)の解釈について検討する。
リテラルレベルでは、様々な入力形式に対するLLMの好みを明らかにする。
注意分布レベルでは、これらの嗜好を駆動するメカニズムについて論じる。
論文 参考訳(メタデータ) (2024-02-18T10:44:03Z) - Making Large Language Models Perform Better in Knowledge Graph Completion [42.175953129260236]
大言語モデル(LLM)に基づく知識グラフ補完(KGC)は、LLMによるKGの欠落を予測することを目的としている。
本稿では,LLMに構造情報を組み込む手法について検討する。
論文 参考訳(メタデータ) (2023-10-10T14:47:09Z) - Unifying Large Language Models and Knowledge Graphs: A Roadmap [61.824618473293725]
大規模言語モデル(LLM)は、自然言語処理と人工知能の分野で新たな波を発生させている。
知識グラフ(KG)、ウィキペディア、フアプ(英語版)は、豊富な事実知識を明示的に記憶する構造化された知識モデルである。
論文 参考訳(メタデータ) (2023-06-14T07:15:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。