論文の概要: Dynamic Context Adaptation for Consistent Role-Playing Agents with Retrieval-Augmented Generations
- arxiv url: http://arxiv.org/abs/2508.02016v2
- Date: Fri, 26 Sep 2025 01:28:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 14:23:57.55517
- Title: Dynamic Context Adaptation for Consistent Role-Playing Agents with Retrieval-Augmented Generations
- Title(参考訳): Retrieval-Augmented Generations を用いた一貫したロールプレイングエージェントの動的コンテキスト適応
- Authors: Jeiyoon Park, Yongshin Han, Minseop Kim, Kisu Yang,
- Abstract要約: ロールプレイングエージェント(RPAs)のためのトレーニングフリーフレームワークであるAmadeusを提案する。
アマデウスフレームワークは、キャラクタの知識を超えた質問に応答しても、ペルソナの一貫性を著しく向上させることができる。
- 参考スコア(独自算出の注目度): 1.1740676332544449
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in large language models (LLMs) have catalyzed research on role-playing agents (RPAs). However, the process of collecting character-specific utterances and continually updating model parameters to track rapidly changing persona attributes is resource-intensive. Although retrieval-augmented generation (RAG) can alleviate this problem, if a persona does not contain knowledge relevant to a given query, RAG-based RPAs are prone to hallucination, making it challenging to generate accurate responses. In this paper, we propose Amadeus, a training-free framework that can significantly enhance persona consistency even when responding to questions that lie beyond a character's knowledge. Amadeus is composed of Adaptive Context-aware Text Splitter (ACTS), Guided Selection (GS), and Attribute Extractor (AE). To facilitate effective RAG-based role-playing, ACTS partitions each character's persona into optimally sized, overlapping chunks and augments this representation with hierarchical contextual information. AE identifies a character's general attributes from the chunks retrieved by GS and uses these attributes as a final context to maintain robust persona consistency even when answering out-of-knowledge questions. To underpin the development and rigorous evaluation of RAG-based RPAs, we manually construct CharacterRAG, a role-playing dataset that consists of persona documents for 15 distinct fictional characters totaling 976K written characters, and 450 question-answer pairs. We find that our proposed method effectively models not only the knowledge possessed by characters, but also various attributes such as personality.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、ロールプレイングエージェント(RPAs)の研究を触媒している。
しかし、文字固有の発話を収集し、急速に変化するペルソナ属性を追跡するためにモデルパラメータを継続的に更新するプロセスはリソース集約的である。
検索強化世代(RAG)はこの問題を緩和することができるが、与えられたクエリに関する知識をペルソナが含まない場合、RAGベースのRPAは幻覚を起こす傾向があり、正確な応答を生成するのが困難である。
本稿では,文字の知識を超越した質問に対して応答しても,ペルソナの一貫性を著しく向上させることができるトレーニングフリーフレームワークであるAmadeusを提案する。
Amadeus は Adaptive Context-aware Text Splitter (ACTS) と Guided Selection (GS) と Attribute Extractor (AE) で構成されている。
効果的なRAGベースのロールプレイングを容易にするため、ACTSは各文字のペルソナを最適な大きさのチャンクに分割し、階層的なコンテキスト情報で表現を増強する。
AEは、GSが検索したチャンクから文字の一般的な属性を特定し、これらの属性を最終コンテキストとして使用して、知識外質問に答える場合でも、堅牢なペルソナ一貫性を維持する。
RAGに基づくRPAの開発と厳密な評価を支援するために,約976Kの文字と450の質問応答対からなる15の架空の文字のペルソナ文書からなるロールプレイングデータセットである characterRAG を手作業で構築した。
提案手法は,キャラクタが持つ知識だけでなく,人格などの属性も効果的にモデル化する。
関連論文リスト
- RMTBench: Benchmarking LLMs Through Multi-Turn User-Centric Role-Playing [111.06936588273868]
RMTBenchは、80の多様な文字と8000以上の対話ラウンドを特徴とする、総合的なテキストバプサー中心のバイリンガルロールプレイングベンチマークである。
本ベンチマークでは,文字記述よりも明示的なユーザモチベーションに基づく対話を構築し,実用的なユーザアプリケーションとの整合性を確保する。
RMTBenchは、キャラクタバックグラウンドからユーザ意図のフルフィルメントにフォーカスを移すことで、学術的な評価と実践的なデプロイメント要件のギャップを埋める。
論文 参考訳(メタデータ) (2025-07-27T16:49:47Z) - A Modular Unsupervised Framework for Attribute Recognition from Unstructured Text [0.0]
POSIDは、構造化されていないテキストから構造化属性ベースのプロパティを抽出するフレームワークである。
InciTextデータセットを使用して、行方不明者のユースケースでその効果を実証する。
論文 参考訳(メタデータ) (2025-07-05T08:22:52Z) - LATex: Leveraging Attribute-based Text Knowledge for Aerial-Ground Person Re-Identification [63.07563443280147]
本稿では,AG-ReID のための新しいフレームワーク LATex を提案する。
属性ベースのテキスト知識を活用するために、プロンプトチューニング戦略を採用する。
我々のフレームワークは、AG-ReIDを改善するために属性ベースのテキスト知識を完全に活用できる。
論文 参考訳(メタデータ) (2025-03-31T04:47:05Z) - Improving RAG for Personalization with Author Features and Contrastive Examples [2.6968321526169503]
検索強化世代(RAG)によるパーソナライゼーションは、しばしば著者の細かい特徴を捉えるのに失敗する。
コントラスト例を紹介する: 他の著者の文書は、LLMが著者のスタイルを他と比較してユニークなものにしているかを特定するのに役立ちます。
以上の結果から,RAGと相補的なコントラスト例を含む新たな研究領域を開拓しつつ,パーソナライゼーション向上のための細粒度機能の価値が示唆された。
論文 参考訳(メタデータ) (2025-03-24T01:41:22Z) - CoSER: Coordinating LLM-Based Persona Simulation of Established Roles [62.886267684392635]
CoSERデータセットは771冊の有名な書籍から17,966文字をカバーしている。
我々は,LLaMA-3.1 モデル上に構築された高度なオープンロールプレイング LLM である CoSER 8B と CoSER 70B を開発した。
論文 参考訳(メタデータ) (2025-02-13T08:55:24Z) - CharacterBench: Benchmarking Character Customization of Large Language Models [80.29164862682063]
我々は,最大2言語生成ベンチマークである characterBench を提案し,3,956 文字を含む22,859 人の注釈付きサンプルを作成した。
我々は,各応答に現れる特定の次元によって評価される特徴量に基づいて,スパース次元と密度次元に分類される6つの側面の11次元を定義する。
また,コスト効率と安定した評価のためのキャラクタジャッジモデルも開発している。
論文 参考訳(メタデータ) (2024-12-16T15:55:34Z) - CHATTER: A Character Attribution Dataset for Narrative Understanding [31.540540919042154]
我々はCHATTERのサブセットであるCHATTEREVALを検証する。CHATTEREVALは人間のアノテーションを用いて映画スクリプトの文字属性タスクを評価するためのベンチマークとして機能する。
evaldatasetはまた、言語モデルの物語理解と長文モデリング能力を評価する。
論文 参考訳(メタデータ) (2024-11-07T22:37:30Z) - BookWorm: A Dataset for Character Description and Analysis [59.186325346763184]
本稿では,短い事実プロファイルを生成する文字記述と,詳細な解釈を提供する文字解析という2つのタスクを定義する。
本稿では,Gutenbergプロジェクトからの書籍と,人間による記述と分析のペアリングを行うBookWormデータセットを紹介する。
その結果,検索に基づくアプローチは両タスクにおいて階層的アプローチよりも優れていた。
論文 参考訳(メタデータ) (2024-10-14T10:55:58Z) - Long-Span Question-Answering: Automatic Question Generation and QA-System Ranking via Side-by-Side Evaluation [65.16137964758612]
大規模言語モデルにおける長文文の活用について検討し,本書全体の読解データを作成する。
我々の目的は、長いテキストの詳細な理解を必要とする問題を分析し、理解し、推論するLLMの能力をテストすることである。
論文 参考訳(メタデータ) (2024-05-31T20:15:10Z) - CRUD-RAG: A Comprehensive Chinese Benchmark for Retrieval-Augmented Generation of Large Language Models [49.16989035566899]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の能力を高める技術である。
本稿では,大規模かつ包括的なベンチマークを構築し,様々なRAGアプリケーションシナリオにおけるRAGシステムのすべてのコンポーネントを評価する。
論文 参考訳(メタデータ) (2024-01-30T14:25:32Z) - Towards Unified Text-based Person Retrieval: A Large-scale
Multi-Attribute and Language Search Benchmark [24.366997699462075]
我々は,MALSと呼ばれるテキストに基づく人物検索のための多属性・言語検索データセットを大規模に導入した。
プライバシの懸念とアノテーションのコストを考慮すると、オフザシェルフ拡散モデルを利用してデータセットを生成する。
生成したデータから学習する可能性を検証するために,新たに属性プロンプト学習とテキストマッチング学習フレームワークを開発する。
論文 参考訳(メタデータ) (2023-06-05T14:06:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。