論文の概要: Dynamic Context Adaptation for Consistent Role-Playing Agents with Retrieval-Augmented Generations
- arxiv url: http://arxiv.org/abs/2508.02016v2
- Date: Fri, 26 Sep 2025 01:28:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 14:23:57.55517
- Title: Dynamic Context Adaptation for Consistent Role-Playing Agents with Retrieval-Augmented Generations
- Title(参考訳): Retrieval-Augmented Generations を用いた一貫したロールプレイングエージェントの動的コンテキスト適応
- Authors: Jeiyoon Park, Yongshin Han, Minseop Kim, Kisu Yang,
- Abstract要約: ロールプレイングエージェント(RPAs)のためのトレーニングフリーフレームワークであるAmadeusを提案する。
アマデウスフレームワークは、キャラクタの知識を超えた質問に応答しても、ペルソナの一貫性を著しく向上させることができる。
- 参考スコア(独自算出の注目度): 1.1740676332544449
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in large language models (LLMs) have catalyzed research on role-playing agents (RPAs). However, the process of collecting character-specific utterances and continually updating model parameters to track rapidly changing persona attributes is resource-intensive. Although retrieval-augmented generation (RAG) can alleviate this problem, if a persona does not contain knowledge relevant to a given query, RAG-based RPAs are prone to hallucination, making it challenging to generate accurate responses. In this paper, we propose Amadeus, a training-free framework that can significantly enhance persona consistency even when responding to questions that lie beyond a character's knowledge. Amadeus is composed of Adaptive Context-aware Text Splitter (ACTS), Guided Selection (GS), and Attribute Extractor (AE). To facilitate effective RAG-based role-playing, ACTS partitions each character's persona into optimally sized, overlapping chunks and augments this representation with hierarchical contextual information. AE identifies a character's general attributes from the chunks retrieved by GS and uses these attributes as a final context to maintain robust persona consistency even when answering out-of-knowledge questions. To underpin the development and rigorous evaluation of RAG-based RPAs, we manually construct CharacterRAG, a role-playing dataset that consists of persona documents for 15 distinct fictional characters totaling 976K written characters, and 450 question-answer pairs. We find that our proposed method effectively models not only the knowledge possessed by characters, but also various attributes such as personality.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、ロールプレイングエージェント(RPAs)の研究を触媒している。
しかし、文字固有の発話を収集し、急速に変化するペルソナ属性を追跡するためにモデルパラメータを継続的に更新するプロセスはリソース集約的である。
検索強化世代(RAG)はこの問題を緩和することができるが、与えられたクエリに関する知識をペルソナが含まない場合、RAGベースのRPAは幻覚を起こす傾向があり、正確な応答を生成するのが困難である。
本稿では,文字の知識を超越した質問に対して応答しても,ペルソナの一貫性を著しく向上させることができるトレーニングフリーフレームワークであるAmadeusを提案する。
Amadeus は Adaptive Context-aware Text Splitter (ACTS) と Guided Selection (GS) と Attribute Extractor (AE) で構成されている。
効果的なRAGベースのロールプレイングを容易にするため、ACTSは各文字のペルソナを最適な大きさのチャンクに分割し、階層的なコンテキスト情報で表現を増強する。
AEは、GSが検索したチャンクから文字の一般的な属性を特定し、これらの属性を最終コンテキストとして使用して、知識外質問に答える場合でも、堅牢なペルソナ一貫性を維持する。
RAGに基づくRPAの開発と厳密な評価を支援するために,約976Kの文字と450の質問応答対からなる15の架空の文字のペルソナ文書からなるロールプレイングデータセットである characterRAG を手作業で構築した。
提案手法は,キャラクタが持つ知識だけでなく,人格などの属性も効果的にモデル化する。
関連論文リスト
- What Makes You Unique? Attribute Prompt Composition for Object Re-Identification [70.67907354506278]
Object Re-IDentificationは、重複しないカメラビューで個人を認識することを目的としている。
単一ドメインモデルはドメイン固有の機能に過度に適合する傾向がありますが、クロスドメインモデルは多種多様な正規化戦略に依存します。
本稿では,テキストのセマンティクスを利用して識別と一般化を協調的に強化する属性プロンプト合成フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-23T07:03:08Z) - RMTBench: Benchmarking LLMs Through Multi-Turn User-Centric Role-Playing [111.06936588273868]
RMTBenchは、80の多様な文字と8000以上の対話ラウンドを特徴とする、総合的なテキストバプサー中心のバイリンガルロールプレイングベンチマークである。
本ベンチマークでは,文字記述よりも明示的なユーザモチベーションに基づく対話を構築し,実用的なユーザアプリケーションとの整合性を確保する。
RMTBenchは、キャラクタバックグラウンドからユーザ意図のフルフィルメントにフォーカスを移すことで、学術的な評価と実践的なデプロイメント要件のギャップを埋める。
論文 参考訳(メタデータ) (2025-07-27T16:49:47Z) - A Modular Unsupervised Framework for Attribute Recognition from Unstructured Text [0.0]
POSIDは、構造化されていないテキストから構造化属性ベースのプロパティを抽出するフレームワークである。
InciTextデータセットを使用して、行方不明者のユースケースでその効果を実証する。
論文 参考訳(メタデータ) (2025-07-05T08:22:52Z) - RoleRAG: Enhancing LLM Role-Playing via Graph Guided Retrieval [6.636092764694501]
RoleRAGは、知識インデックス作成のための効率的なエンティティの曖昧さを、構造化知識グラフからコンテキスト的に適切な情報を抽出する境界対応検索器と統合した検索ベースのフレームワークである。
ロールプレイングベンチマークの実験により、RoleRAGの校正された検索は、汎用LLMとロール固有LLMの両方がキャラクタ知識との整合性を向上し、幻覚応答の低減に役立つことが示された。
論文 参考訳(メタデータ) (2025-05-24T06:11:17Z) - Attributing Response to Context: A Jensen-Shannon Divergence Driven Mechanistic Study of Context Attribution in Retrieval-Augmented Generation [52.3707788779464]
我々は、コンテキストに対する属性応答(ARC-JSD)のための新しいJensen-Shannon Divergence駆動方式を提案する。
ARC-JSDは、追加の微調整、勾配計算、サロゲートモデリングなしで、重要な文脈文の効率的かつ正確な識別を可能にする。
TyDi QA, Hotpot QA, Musique など,様々なスケールの命令調整 LLM を用いたRAG ベンチマークの評価により,精度が向上し,計算効率が向上した。
論文 参考訳(メタデータ) (2025-05-22T09:04:03Z) - LATex: Leveraging Attribute-based Text Knowledge for Aerial-Ground Person Re-Identification [63.07563443280147]
本稿では,AG-ReID のための新しいフレームワーク LATex を提案する。
属性ベースのテキスト知識を活用するために、プロンプトチューニング戦略を採用する。
我々のフレームワークは、AG-ReIDを改善するために属性ベースのテキスト知識を完全に活用できる。
論文 参考訳(メタデータ) (2025-03-31T04:47:05Z) - Improving RAG for Personalization with Author Features and Contrastive Examples [2.6968321526169503]
検索強化世代(RAG)によるパーソナライゼーションは、しばしば著者の細かい特徴を捉えるのに失敗する。
コントラスト例を紹介する: 他の著者の文書は、LLMが著者のスタイルを他と比較してユニークなものにしているかを特定するのに役立ちます。
以上の結果から,RAGと相補的なコントラスト例を含む新たな研究領域を開拓しつつ,パーソナライゼーション向上のための細粒度機能の価値が示唆された。
論文 参考訳(メタデータ) (2025-03-24T01:41:22Z) - CoSER: Coordinating LLM-Based Persona Simulation of Established Roles [62.886267684392635]
CoSERデータセットは771冊の有名な書籍から17,966文字をカバーしている。
我々は,LLaMA-3.1 モデル上に構築された高度なオープンロールプレイング LLM である CoSER 8B と CoSER 70B を開発した。
論文 参考訳(メタデータ) (2025-02-13T08:55:24Z) - CharacterBench: Benchmarking Character Customization of Large Language Models [80.29164862682063]
我々は,最大2言語生成ベンチマークである characterBench を提案し,3,956 文字を含む22,859 人の注釈付きサンプルを作成した。
我々は,各応答に現れる特定の次元によって評価される特徴量に基づいて,スパース次元と密度次元に分類される6つの側面の11次元を定義する。
また,コスト効率と安定した評価のためのキャラクタジャッジモデルも開発している。
論文 参考訳(メタデータ) (2024-12-16T15:55:34Z) - CHATTER: A Character Attribution Dataset for Narrative Understanding [31.540540919042154]
我々はCHATTERのサブセットであるCHATTEREVALを検証する。CHATTEREVALは人間のアノテーションを用いて映画スクリプトの文字属性タスクを評価するためのベンチマークとして機能する。
evaldatasetはまた、言語モデルの物語理解と長文モデリング能力を評価する。
論文 参考訳(メタデータ) (2024-11-07T22:37:30Z) - BookWorm: A Dataset for Character Description and Analysis [59.186325346763184]
本稿では,短い事実プロファイルを生成する文字記述と,詳細な解釈を提供する文字解析という2つのタスクを定義する。
本稿では,Gutenbergプロジェクトからの書籍と,人間による記述と分析のペアリングを行うBookWormデータセットを紹介する。
その結果,検索に基づくアプローチは両タスクにおいて階層的アプローチよりも優れていた。
論文 参考訳(メタデータ) (2024-10-14T10:55:58Z) - GEM-RAG: Graphical Eigen Memories For Retrieval Augmented Generation [3.2027710059627545]
検索拡張生成のためのグラフィカル固有メモリ(GEM-RAG)について紹介する。
GEM-RAG は LLM が生成したユーティリティの質問を与えられたテキストコーパスにタグ付けすることで機能する。
我々は,UnifiedQA と GPT-3.5 Turbo を LLM として,SBERT を用いた GEM-RAG と OpenAI のテキストエンコーダを2つの標準QA タスクで評価した。
論文 参考訳(メタデータ) (2024-09-23T21:42:47Z) - Long-Span Question-Answering: Automatic Question Generation and QA-System Ranking via Side-by-Side Evaluation [65.16137964758612]
大規模言語モデルにおける長文文の活用について検討し,本書全体の読解データを作成する。
我々の目的は、長いテキストの詳細な理解を必要とする問題を分析し、理解し、推論するLLMの能力をテストすることである。
論文 参考訳(メタデータ) (2024-05-31T20:15:10Z) - CRUD-RAG: A Comprehensive Chinese Benchmark for Retrieval-Augmented Generation of Large Language Models [49.16989035566899]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の能力を高める技術である。
本稿では,大規模かつ包括的なベンチマークを構築し,様々なRAGアプリケーションシナリオにおけるRAGシステムのすべてのコンポーネントを評価する。
論文 参考訳(メタデータ) (2024-01-30T14:25:32Z) - Multi-Prompts Learning with Cross-Modal Alignment for Attribute-based
Person Re-Identification [18.01407937934588]
本稿では,素早い学習と言語モデルに基づくMP-ReID(Multi-Prompts ReID)という新しいフレームワークを提案する。
MP-ReIDは、クエリイメージを記述するために、多様で情報的、即応的な文を幻覚させることを学ぶ。
明示的なプロンプトは、ChatGPTやVQAモデルといった世代モデルをアンサンブルすることで得られる。
論文 参考訳(メタデータ) (2023-12-28T03:00:19Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z) - Towards Unified Text-based Person Retrieval: A Large-scale
Multi-Attribute and Language Search Benchmark [24.366997699462075]
我々は,MALSと呼ばれるテキストに基づく人物検索のための多属性・言語検索データセットを大規模に導入した。
プライバシの懸念とアノテーションのコストを考慮すると、オフザシェルフ拡散モデルを利用してデータセットを生成する。
生成したデータから学習する可能性を検証するために,新たに属性プロンプト学習とテキストマッチング学習フレームワークを開発する。
論文 参考訳(メタデータ) (2023-06-05T14:06:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。