論文の概要: Deliberation on Priors: Trustworthy Reasoning of Large Language Models on Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2505.15210v1
- Date: Wed, 21 May 2025 07:38:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.118141
- Title: Deliberation on Priors: Trustworthy Reasoning of Large Language Models on Knowledge Graphs
- Title(参考訳): 先行研究:知識グラフに基づく大規模言語モデルの信頼できる推論
- Authors: Jie Ma, Ning Qu, Zhitao Gao, Rui Xing, Jun Liu, Hongbin Pei, Jiang Xie, Linyun Song, Pinghui Wang, Jing Tao, Zhou Su,
- Abstract要約: 我々は、優先事項に関する審議(DP)と呼ばれる信頼できる推論フレームワークを提案する。
DPは、教師付き微調整とKahneman-Tversky最適化を組み合わせることで、構造的事前をLLM(Large Language Models)に統合する。
本フレームワークでは,LLMに対して,抽出した制約前処理に基づいて精巧な推論検証を行うための推論イントロスペクション戦略を採用している。
- 参考スコア(独自算出の注目度): 31.457954100196524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graph-based retrieval-augmented generation seeks to mitigate hallucinations in Large Language Models (LLMs) caused by insufficient or outdated knowledge. However, existing methods often fail to fully exploit the prior knowledge embedded in knowledge graphs (KGs), particularly their structural information and explicit or implicit constraints. The former can enhance the faithfulness of LLMs' reasoning, while the latter can improve the reliability of response generation. Motivated by these, we propose a trustworthy reasoning framework, termed Deliberation over Priors (DP), which sufficiently utilizes the priors contained in KGs. Specifically, DP adopts a progressive knowledge distillation strategy that integrates structural priors into LLMs through a combination of supervised fine-tuning and Kahneman-Tversky optimization, thereby improving the faithfulness of relation path generation. Furthermore, our framework employs a reasoning-introspection strategy, which guides LLMs to perform refined reasoning verification based on extracted constraint priors, ensuring the reliability of response generation. Extensive experiments on three benchmark datasets demonstrate that DP achieves new state-of-the-art performance, especially a Hit@1 improvement of 13% on the ComplexWebQuestions dataset, and generates highly trustworthy responses. We also conduct various analyses to verify its flexibility and practicality. The code is available at https://github.com/reml-group/Deliberation-on-Priors.
- Abstract(参考訳): 知識グラフに基づく検索強化世代は、不十分または時代遅れな知識によって引き起こされる大規模言語モデル(LLM)における幻覚を緩和しようとする。
しかし、既存の手法は知識グラフ(KG)に埋め込まれた以前の知識、特に構造情報や明示的あるいは暗黙的な制約を十分に活用できないことが多い。
前者はLSMの推論の忠実さを高めることができ、後者は応答生成の信頼性を向上させることができる。
そこで本稿では,KG に含まれる先入観を十分に活用する信頼性の高い推論フレームワークである Dliberation over Priors (DP) を提案する。
具体的には、DPは、教師付き微調整とKahneman-Tversky最適化を組み合わせることで、構造的先行をLLMに統合する進歩的知識蒸留戦略を採用し、関係経路生成の忠実性を向上させる。
さらに,本フレームワークでは,LLMを誘導し,抽出した制約事前に基づいて精度の高い推論検証を行い,応答生成の信頼性を確保するための推論検査戦略を採用している。
3つのベンチマークデータセットに対する大規模な実験は、DPが新しい最先端のパフォーマンス、特にComplexWebQuestionsデータセットで13%のHit@1改善を実現し、信頼性の高いレスポンスを生成することを示した。
また、その柔軟性と実用性を検証するために様々な分析を行う。
コードはhttps://github.com/reml-group/Deliberation-on-Priors.comで公開されている。
関連論文リスト
- CoT-RAG: Integrating Chain of Thought and Retrieval-Augmented Generation to Enhance Reasoning in Large Language Models [14.784841713647682]
CoT(Chain-of- Thought)推論は、複雑なタスクにおける大規模言語モデルのLLM(LLM)パフォーマンスを高める。
提案するCoT-RAGは3つの重要な設計を持つ新しい推論フレームワークである。
精度は4.0%から44.3%に向上した。
論文 参考訳(メタデータ) (2025-04-18T07:55:09Z) - Enhancing LLM Reliability via Explicit Knowledge Boundary Modeling [48.15636223774418]
大きな言語モデル(LLM)は、不一致の自己認識のためにしばしば幻覚する。
既存のアプローチは、不確実性推定やクエリの拒否を通じて幻覚を緩和する。
高速かつ低速な推論システムを統合するための明示的知識境界モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-04T03:16:02Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - GRATR: Zero-Shot Evidence Graph Retrieval-Augmented Trustworthiness Reasoning [7.3795957796342195]
信頼度推論(Trustworthiness reasoning)は、非完全な情報を持つマルチプレイヤーゲームのエージェントが潜在的な同盟国や敵を識別できるようにすることを目的としている。
本稿では,ゲーム環境から観測可能な証拠を検索するGRATRフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-22T12:21:22Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。