論文の概要: RoleRAG: Enhancing LLM Role-Playing via Graph Guided Retrieval
- arxiv url: http://arxiv.org/abs/2505.18541v1
- Date: Sat, 24 May 2025 06:11:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.491301
- Title: RoleRAG: Enhancing LLM Role-Playing via Graph Guided Retrieval
- Title(参考訳): RoleRAG: グラフガイド検索によるLLMロールプレイングの強化
- Authors: Yongjie Wang, Jonathan Leung, Zhiqi Shen,
- Abstract要約: RoleRAGは、知識インデックス作成のための効率的なエンティティの曖昧さを、構造化知識グラフからコンテキスト的に適切な情報を抽出する境界対応検索器と統合した検索ベースのフレームワークである。
ロールプレイングベンチマークの実験により、RoleRAGの校正された検索は、汎用LLMとロール固有LLMの両方がキャラクタ知識との整合性を向上し、幻覚応答の低減に役立つことが示された。
- 参考スコア(独自算出の注目度): 6.636092764694501
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Models (LLMs) have shown promise in character imitation, enabling immersive and engaging conversations. However, they often generate content that is irrelevant or inconsistent with a character's background. We attribute these failures to: (1) the inability to accurately recall character-specific knowledge due to entity ambiguity, and (2) a lack of awareness of the character's cognitive boundaries. To address these issues, we propose RoleRAG, a retrieval-based framework that integrates efficient entity disambiguation for knowledge indexing with a boundary-aware retriever for extracting contextually appropriate information from a structured knowledge graph. Experiments on role-playing benchmarks show that RoleRAG's calibrated retrieval helps both general-purpose and role-specific LLMs better align with character knowledge and reduce hallucinated responses.
- Abstract(参考訳): 大きな言語モデル(LLM)は文字模倣の可能性を示しており、没入的で魅力的な会話を可能にしている。
しかし、しばしばキャラクターの背景と無関係で矛盾した内容を生成する。
これらの失敗は,(1) 実体のあいまいさによる文字固有の知識を正確に思い出せないこと,(2) 文字の認知境界に対する認識の欠如である。
このような問題に対処するために,知識インデックス作成のための効率的なエンティティの曖昧さを,構造化知識グラフからコンテキスト的に適切な情報を抽出する境界対応検索器と統合した検索ベースフレームワークであるRoleRAGを提案する。
ロールプレイングベンチマークの実験により、RoleRAGの校正された検索は、汎用LLMとロール固有LLMの両方がキャラクタ知識との整合性を向上し、幻覚応答の低減に役立つことが示された。
関連論文リスト
- Align-GRAG: Reasoning-Guided Dual Alignment for Graph Retrieval-Augmented Generation [75.9865035064794]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚や時代遅れの情報といった問題に苦戦している。
Retrieval-augmented Generation (RAG) は、情報検索システム(IR)を用いて、外部知識のLLM出力を基底にすることで、これらの問題に対処する。
本稿では、検索後句における新しい推論誘導二重アライメントフレームワークであるAlign-GRAGを提案する。
論文 参考訳(メタデータ) (2025-05-22T05:15:27Z) - Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - Trustful LLMs: Customizing and Grounding Text Generation with Knowledge Bases and Dual Decoders [5.929519489554968]
本稿では,RAGコンテキストにおける知識三重項を利用して幻覚を補正する後処理アルゴリズムを提案する。
また、RAGコンテキストを融合して生成プロセスを導出するデュアルデコーダモデルを提案する。
論文 参考訳(メタデータ) (2024-11-12T15:26:17Z) - Embodied-RAG: General Non-parametric Embodied Memory for Retrieval and Generation [69.01029651113386]
Embodied-RAGは、非パラメトリックメモリシステムによるエンボディエージェントのモデルを強化するフレームワークである。
コアとなるEmbodied-RAGのメモリはセマンティックフォレストとして構成され、言語記述を様々なレベルで詳細に保存する。
Embodied-RAGがRAGをロボット領域に効果的にブリッジし、250以上の説明とナビゲーションクエリをうまく処理できることを実証する。
論文 参考訳(メタデータ) (2024-09-26T21:44:11Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。