論文の概要: Reasoning Does Not Necessarily Improve Role-Playing Ability
- arxiv url: http://arxiv.org/abs/2502.16940v1
- Date: Mon, 24 Feb 2025 08:08:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:58:21.439593
- Title: Reasoning Does Not Necessarily Improve Role-Playing Ability
- Title(参考訳): Reasoningはロールプレイング能力を改善する必要はない
- Authors: Xiachong Feng, Longxu Dou, Lingpeng Kong,
- Abstract要約: ロールプレイング大型言語モデル(LLM)の適用は、学術分野と商業分野の両方で急速に拡大している。
我々は、直接ゼロショットロールプレイングの有効性、Chain-of-Thought(CoT)によるロールプレイング、推論最適化LDMを用いたロールプレイングを比較した。
以上の結果から,CoTはロールプレイング性能を低下させ,推論最適化LDMはロールプレイングに不適であり,中国のロールプレイング性能は英語ロールプレイング性能を上回っていることがわかった。
- 参考スコア(独自算出の注目度): 46.441264660062195
- License:
- Abstract: The application of role-playing large language models (LLMs) is rapidly expanding in both academic and commercial domains, driving an increasing demand for high-precision role-playing models. Simultaneously, the rapid advancement of reasoning techniques has continuously pushed the performance boundaries of LLMs. This intersection of practical role-playing demands and evolving reasoning capabilities raises an important research question: "Can reasoning techniques enhance the role-playing capabilities of LLMs?" To address this, we conduct a comprehensive study using 6 role-playing benchmarks, 24 LLMs, and 3 distinct role-playing strategies, comparing the effectiveness of direct zero-shot role-playing, role-playing with Chain-of-Thought (CoT), and role-playing using reasoning-optimized LLMs. Our findings reveal that CoT may reduce role-playing performance, reasoning-optimized LLMs are unsuitable for role-playing, reasoning ability disrupts the role-playing scaling law, large models still lack proficiency in advanced role-playing, and Chinese role-playing performance surpasses English role-playing performance. Furthermore, based on extensive experimental results, we propose two promising future research directions: Role-aware CoT for improving role-playing LLMs and Reinforcement Learning for role-playing LLMs, aiming to enhance the adaptability, consistency, and effectiveness of role-playing LLMs for both research and real-world applications.
- Abstract(参考訳): ロールプレイング大型言語モデル(LLM)の適用は、学術分野と商業分野の両方で急速に拡大しており、高精度ロールプレイングモデルの需要が高まっている。
同時に、推論技術の急速な進歩は、LLMの性能境界を継続的に押し上げている。
実用的なロールプレイング要求と進化する推論能力の交わりは、重要な研究課題を提起する。
そこで本研究では,6つのロールプレイングベンチマーク,24個のLDM,および3つの異なるロールプレイング戦略を用いて,直接ゼロショットロールプレイングの有効性,Chain-of-Thought(CoT)によるロールプレイング,推論最適化LDMを用いたロールプレイングを比較した。
以上の結果から,CoTはロールプレイング性能を低下させる可能性があり,推論最適化LDMはロールプレイングには適さないこと,推論能力がロールプレイングスケーリング法を阻害すること,大規模モデルにはまだ高度なロールプレイング能力がないこと,中国のロールプレイング性能が英語ロールプレイング性能を上回ることが示唆された。
ロールプレイング LLM の改善を目的としたロールプレイング CoT とロールプレイング LLM の強化,ロールプレイング LLM の適応性,一貫性,および実世界のアプリケーションへの適用性の向上を目的とした強化学習を提案する。
関連論文リスト
- RoleMRC: A Fine-Grained Composite Benchmark for Role-Playing and Instruction-Following [31.80357046048002]
ロールプレイングは、大規模言語モデルにとって、多様な指示に従うことが重要である。
既存のロールプレイングデータセットは、主にロールスタイルと知識境界の制御に寄与する。
本稿では,RoleMRCという詳細なロールプレイングと命令フォローのベンチマークを紹介する。
論文 参考訳(メタデータ) (2025-02-17T03:08:37Z) - Satori: Reinforcement Learning with Chain-of-Action-Thought Enhances LLM Reasoning via Autoregressive Search [57.28671084993782]
大規模言語モデル(LLM)は、様々な領域にまたがる顕著な推論能力を示している。
近年の研究では、テスト時間計算の増加はLLMの推論能力を高めることが示されている。
そこで我々は,1)COAT推論形式を内部化するための小規模な形式調整段階,2)強化学習を活用した大規模自己改善段階を提案する。
論文 参考訳(メタデータ) (2025-02-04T17:26:58Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - On the Decision-Making Abilities in Role-Playing using Large Language
Models [6.550638804145713]
大型言語モデル(LLM)はロールプレイングタスクにますます活用されている。
本稿では,LLMのポストロールプレイングにおける意思決定能力の評価に焦点をあてる。
論文 参考訳(メタデータ) (2024-02-29T02:22:23Z) - Enhancing Role-playing Systems through Aggressive Queries: Evaluation and Improvement [17.5855800570993]
大言語モデル(LLM)は、特にロールプレイングシステム(RPS)分野において、対話生成を新しい領域に推進している。
既存のLLMベースのRSSは、境界シナリオで複雑なクエリと閉じ込められたクエリを扱う場合、役割と整合するのに依然として苦労している。
本研究は,MORTISE (Modular Orchestrated Trap-setting Interaction SystEm) を設計し,ロールプレイングLLMの性能向上を図る。
論文 参考訳(メタデータ) (2024-02-16T12:12:05Z) - Large Language Models are Superpositions of All Characters: Attaining
Arbitrary Role-play via Self-Alignment [62.898963074989766]
本稿では,ロールプレイのための自己アライメント手法であるDittoを紹介する。
この方法は4000文字からなるロールプレイトレーニングセットを生成し、現在利用可能なデータセットのスケールを10倍に超える。
本稿では,ロールプレイ領域におけるクロススーパービジョンアライメント実験について紹介する。
論文 参考訳(メタデータ) (2024-01-23T03:56:22Z) - RoleLLM: Benchmarking, Eliciting, and Enhancing Role-Playing Abilities of Large Language Models [107.00832724504752]
大規模言語モデル(LLM)におけるロールプレイング能力をベンチマークし、評価し、拡張するフレームワークであるRoleLLMを紹介する。
Context-InstructとRoleGPTによって、168,093サンプルでロールプレイする最初の体系的できめ細かい文字レベルのベンチマークデータセットであるRoleBenchを作成します。
論文 参考訳(メタデータ) (2023-10-01T17:52:59Z) - RODE: Learning Roles to Decompose Multi-Agent Tasks [69.56458960841165]
ロールベースの学習は、ロールを使って複雑なタスクを分解することで、スケーラブルなマルチエージェント学習を実現するという約束を持っている。
本稿では,まず,環境および他のエージェントに対する影響に応じて協調行動空間をクラスタリングすることで,制約された役割行動空間に分解することを提案する。
これらの進歩により、我々の手法は、挑戦的なStarCraft IIマイクロマネジメントベンチマークを構成する14シナリオのうち10シナリオにおいて、現在の最先端のMARLアルゴリズムよりも優れています。
論文 参考訳(メタデータ) (2020-10-04T09:20:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。