論文の概要: RAGs to Riches: RAG-like Few-shot Learning for Large Language Model Role-playing
- arxiv url: http://arxiv.org/abs/2509.12168v1
- Date: Mon, 15 Sep 2025 17:31:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.427627
- Title: RAGs to Riches: RAG-like Few-shot Learning for Large Language Model Role-playing
- Title(参考訳): RAG to Riches:大規模言語モデルロールプレイングのためのRAGライクなFew-shot Learning
- Authors: Timothy Rupprecht, Enfu Nan, Arash Akbari, Arman Akbari, Lei Lu, Priyanka Maan, Sean Duffy, Pu Zhao, Yumei He, David Kaeli, Yanzhi Wang,
- Abstract要約: 大規模言語モデル(LLM)は、医療、教育、ガバナンスといった高度な領域にますますデプロイされている。
Retrieval-Augmented Generation (RAG)にインスパイアされ、LLMロールプレイングをテキスト検索問題に書き換える。
- 参考スコア(独自算出の注目度): 26.263809408983306
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Role-playing Large language models (LLMs) are increasingly deployed in high-stakes domains such as healthcare, education, and governance, where failures can directly impact user trust and well-being. A cost effective paradigm for LLM role-playing is few-shot learning, but existing approaches often cause models to break character in unexpected and potentially harmful ways, especially when interacting with hostile users. Inspired by Retrieval-Augmented Generation (RAG), we reformulate LLM role-playing into a text retrieval problem and propose a new prompting framework called RAGs-to-Riches, which leverages curated reference demonstrations to condition LLM responses. We evaluate our framework with LLM-as-a-judge preference voting and introduce two novel token-level ROUGE metrics: Intersection over Output (IOO) to quantity how much an LLM improvises and Intersection over References (IOR) to measure few-shot demonstrations utilization rate during the evaluation tasks. When simulating interactions with a hostile user, our prompting strategy incorporates in its responses during inference an average of 35% more tokens from the reference demonstrations. As a result, across 453 role-playing interactions, our models are consistently judged as being more authentic, and remain in-character more often than zero-shot and in-context Learning (ICL) methods. Our method presents a scalable strategy for building robust, human-aligned LLM role-playing frameworks.
- Abstract(参考訳): ロールプレイング 大規模言語モデル(LLM)は、医療、教育、ガバナンスといった高度な領域にますますデプロイされています。
LLMロールプレイングのためのコスト効率のよいパラダイムは、ほとんどショットラーニングではないが、既存のアプローチでは、特に敵対的なユーザと対話する際に、予期せぬ、潜在的に有害な方法でキャラクタを壊すことがしばしばある。
Retrieval-Augmented Generation (RAG) にヒントを得て, LLMロールプレイングをテキスト検索問題に書き換え, RAG-to-Richesと呼ばれる新しいプロンプトフレームワークを提案する。
提案手法をLLM-as-a-judge選好投票を用いて評価し,新たなトークンレベルのROUGE指標を2つ導入した。
攻撃的ユーザとのインタラクションをシミュレートする際、我々のプロンプト戦略は、参照デモから平均35%以上のトークンを推論中にその応答に組み込む。
結果として、453のロールプレイングインタラクションにおいて、我々のモデルは一貫して真正であると判断され、ゼロショットおよびインコンテキストラーニング(ICL)メソッドよりも、キャラクタ内に留まることが多い。
本手法は,ロバストなLLMロールプレイングフレームワークを構築するためのスケーラブルな戦略を提案する。
関連論文リスト
- U-NIAH: Unified RAG and LLM Evaluation for Long Context Needle-In-A-Haystack [9.760456105567078]
本稿では,Large Language Models(LLM)とRetrieval-Augmented Generation(RAG)を体系的に比較する統一フレームワークであるU-NIAHを紹介する。
本フレームワークでは,複数のニードル,長いニードル,ニードルの設定を,異なる検索設定とともに組み込んでいる。
以上の結果から,RAGはロスト・イン・ザ・ミドル効果を緩和し,ロバスト性を向上させることにより,より小さなLCMを著しく向上させることが明らかとなった。
論文 参考訳(メタデータ) (2025-03-01T05:05:24Z) - LaRA: Benchmarking Retrieval-Augmented Generation and Long-Context LLMs -- No Silver Bullet for LC or RAG Routing [70.35888047551643]
本稿では,RAGとLC LLMを厳格に比較するための新しいベンチマークであるLaRAを提案する。
LaRAは4つのQAタスクカテゴリと3種類の自然発生長文の2326のテストケースを含んでいる。
RAGとLCの最適選択は,モデルのパラメータサイズ,長文機能,コンテキスト長,タスクタイプ,取得したチャンクの特性など,複雑な相互作用に依存する。
論文 参考訳(メタデータ) (2025-02-14T08:04:22Z) - RAG-Modulo: Solving Sequential Tasks using Experience, Critics, and Language Models [5.0741409008225755]
大規模言語モデル(LLM)は、ロボットの課題を解決するための有望なツールとして登場した。
既存のLSMベースのエージェントは、過去の相互作用を維持および学習する能力に欠ける。
RAG-Modulo は,過去のインタラクションを記憶した LLM ベースのエージェントを強化し,エージェントの判断を評価するための批判を取り入れたフレームワークである。
論文 参考訳(メタデータ) (2024-09-18T20:03:32Z) - Small Language Models as Effective Guides for Large Language Models in Chinese Relation Extraction [7.8274692517258435]
本稿では,モデルコラボレーションフレームワークSLCoLMを提案する。
本フレームワークでは,SLM(Small-Training-Guide-Predict')とLLM(Large Language Model)の長所を組み合わせるために,TextitTraining-Guide-Predict'戦略を用いる。
関係型に富んだ古代中国のREデータセットを用いた実験により,この手法が長尾関係型のREを促進することを示す。
論文 参考訳(メタデータ) (2024-02-22T08:26:56Z) - Enhancing Role-playing Systems through Aggressive Queries: Evaluation and Improvement [17.5855800570993]
大言語モデル(LLM)は、特にロールプレイングシステム(RPS)分野において、対話生成を新しい領域に推進している。
既存のLLMベースのRSSは、境界シナリオで複雑なクエリと閉じ込められたクエリを扱う場合、役割と整合するのに依然として苦労している。
本研究は,MORTISE (Modular Orchestrated Trap-setting Interaction SystEm) を設計し,ロールプレイングLLMの性能向上を図る。
論文 参考訳(メタデータ) (2024-02-16T12:12:05Z) - Rephrase and Respond: Let Large Language Models Ask Better Questions for Themselves [57.974103113675795]
本稿では,Rephrase and Respond'(RaR)という手法を提案する。
RaRは、パフォーマンスを改善するためのシンプルだが効果的なプロンプト方法として機能する。
また,RaRは理論的にも経験的にも,一般的なChain-of-Thought(CoT)法と相補的であることを示す。
論文 参考訳(メタデータ) (2023-11-07T18:43:34Z) - ReEval: Automatic Hallucination Evaluation for Retrieval-Augmented Large Language Models via Transferable Adversarial Attacks [91.55895047448249]
本稿では,LLMベースのフレームワークであるReEvalについて述べる。
本稿では、ChatGPTを用いてReEvalを実装し、2つの人気のあるオープンドメインQAデータセットのバリエーションを評価する。
我々の生成したデータは人間可読であり、大きな言語モデルで幻覚を引き起こすのに役立ちます。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - Are Large Language Models Really Robust to Word-Level Perturbations? [68.60618778027694]
本稿では,事前学習した報酬モデルを診断ツールとして活用する,新たな合理的評価手法を提案する。
より長い会話は、質問を理解する能力の観点から言語モデルの包括的把握を示す。
この結果から,LLMは日常言語でよく使われる単語レベルの摂動に対する脆弱性をしばしば示している。
論文 参考訳(メタデータ) (2023-09-20T09:23:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。