論文の概要: Improving LLM's Attachment to External Knowledge In Dialogue Generation Tasks Through Entity Anonymization
- arxiv url: http://arxiv.org/abs/2511.11946v1
- Date: Fri, 14 Nov 2025 23:37:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.414805
- Title: Improving LLM's Attachment to External Knowledge In Dialogue Generation Tasks Through Entity Anonymization
- Title(参考訳): エンティティ匿名化による対話生成課題におけるLLMの外部知識への適応性の改善
- Authors: Hadi Sheikhi, Chenyang Huang, Osmar R. Zaïane,
- Abstract要約: 大規模言語モデル(LLM)は、様々なNLPタスクにまたがって印象的な結果を得たが、外部知識を活用できる能力はまだ探索されていない。
LLMは、しばしば内部知識に依存し、提供された知識グラフから切り離される。
まず,LLM-KATについて述べる。
第2に,LCMの外部知識の活用を促進するため,単純かつ効果的なエンティティ匿名化手法を提案する。
- 参考スコア(独自算出の注目度): 7.386591427697652
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graph-based dialogue generation (KG-DG) is a challenging task requiring models to effectively incorporate external knowledge into conversational responses. While large language models (LLMs) have achieved impressive results across various NLP tasks, their ability to utilize external knowledge in KG-DG remains under-explored. We observe that LLMs often rely on internal knowledge, leading to detachment from provided knowledge graphs, even when they are given a flawlessly retrieved knowledge graph. First, we introduce LLM-KAT, an evaluation procedure for measuring knowledge attachment in generated responses. Second, we propose a simple yet effective entity anonymization technique to encourage LLMs to better leverage external knowledge. Experiments on the OpenDialKG dataset demonstrate that our approach improves LLMs' attachment on external knowledge.
- Abstract(参考訳): 知識グラフに基づく対話生成(KG-DG)は、外部知識を会話応答に効果的に組み込むモデルを必要とする課題である。
大規模言語モデル(LLM)は、様々なNLPタスクにまたがって印象的な結果を得たが、KG-DGにおける外部知識を活用する能力はいまだ探索されていない。
我々は LLM がしばしば内部知識に依存していることを観察し, 得られた知識グラフが不完全に取得された場合でも, 提供された知識グラフから切り離される。
まず,LLM-KATについて述べる。
第2に,LCMの外部知識の活用を促進するため,単純かつ効果的なエンティティ匿名化手法を提案する。
OpenDialKGデータセットの実験は、我々のアプローチがLLMの外部知識への愛着を改善することを実証している。
関連論文リスト
- LLM Inference Enhanced by External Knowledge: A Survey [16.319049759753106]
本研究では,外部知識を用いた大規模言語モデル(LLM)の強化戦略について検討する。
比較分析では、解釈可能性、スケーラビリティ、パフォーマンスのトレードオフを強調しています。
論文 参考訳(メタデータ) (2025-05-30T09:08:51Z) - Unveiling Knowledge Utilization Mechanisms in LLM-based Retrieval-Augmented Generation [77.10390725623125]
検索強化世代(RAG)は知識範囲の拡大に広く利用されている。
RAGは、オープンドメインの質問応答のような知識集約的なタスクを約束しているので、複雑なタスクやインテリジェントアシスタントへの幅広い応用は、その実用性をさらに進歩させてきた。
本稿では、RAGが内部(パラメトリック)知識と外部(検索)知識を統合する本質的なメカニズムを体系的に検討する。
論文 参考訳(メタデータ) (2025-05-17T13:13:13Z) - KnowPath: Knowledge-enhanced Reasoning via LLM-generated Inference Paths over Knowledge Graphs [35.63483147113076]
大規模言語モデル(LLM)は、様々な複雑なタスクにおいて顕著な能力を示してきたが、それでも幻覚に悩まされている。
内部知識と外部知識の協調によって駆動される知識強化型大規模モデルフレームワークであるKnowPathを提案する。
論文 参考訳(メタデータ) (2025-02-17T17:02:01Z) - KaLM: Knowledge-aligned Autoregressive Language Modeling via Dual-view Knowledge Graph Contrastive Learning [74.21524111840652]
本稿では、textitKnowledge-aligned Language Modeling アプローチである textbfKaLM を提案する。
明示的な知識アライメントと暗黙的な知識アライメントという共同目的を通じて、KG知識と整合するように、自己回帰的な大規模言語モデルを微調整する。
特に,本手法は知識駆動型タスクの評価において顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2024-12-06T11:08:24Z) - Internal and External Knowledge Interactive Refinement Framework for Knowledge-Intensive Question Answering [33.89176174108559]
本稿では,IEKRと呼ばれる新たな内部知識と外部知識の対話的改良パラダイムを提案する。
LLM に “Tell me something about” のようなプロンプトを追加するだけで、関連する明示的な知識をレビューして、クエリに挿入して外部検索します。
論文 参考訳(メタデータ) (2024-08-23T10:52:57Z) - InfuserKI: Enhancing Large Language Models with Knowledge Graphs via Infuser-Guided Knowledge Integration [58.61492157691623]
知識を統合する手法が開発され、外部モジュールを通してLLMをドメイン固有の知識グラフに拡張した。
本研究は,未知の知識をLLMに効率的に統合することで,未知の知識を不要に重複させるという,新たな問題に焦点をあてる。
新しい知識を導入するリスクは、既存の知識を忘れることである。
論文 参考訳(メタデータ) (2024-02-18T03:36:26Z) - RECALL: A Benchmark for LLMs Robustness against External Counterfactual
Knowledge [69.79676144482792]
本研究の目的は,LLMが外部知識から信頼できる情報を識別する能力を評価することである。
本ベンチマークは,質問応答とテキスト生成という2つのタスクから構成される。
論文 参考訳(メタデータ) (2023-11-14T13:24:19Z) - "Merge Conflicts!" Exploring the Impacts of External Distractors to
Parametric Knowledge Graphs [15.660128743249611]
大規模言語モデル(LLM)は、パラメトリック知識として知られる事前学習中に広範な知識を取得する。
LLMは必然的にユーザとの対話中に外部知識を必要とする。
外部知識がパラメトリック知識に干渉した場合、LCMはどのように反応するのだろうか?
論文 参考訳(メタデータ) (2023-09-15T17:47:59Z) - Investigating the Factual Knowledge Boundary of Large Language Models with Retrieval Augmentation [109.8527403904657]
大規模言語モデル(LLM)は,その知識に対する信頼度が低く,内部知識と外部知識の衝突をうまく扱えないことを示す。
検索の強化は、LLMの知識境界に対する認識を高める効果的なアプローチであることが証明されている。
本稿では,文書を動的に活用するための簡易な手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T16:46:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。