論文の概要: HyCoRA: Hyper-Contrastive Role-Adaptive Learning for Role-Playing
- arxiv url: http://arxiv.org/abs/2511.08017v1
- Date: Wed, 12 Nov 2025 01:34:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.600993
- Title: HyCoRA: Hyper-Contrastive Role-Adaptive Learning for Role-Playing
- Title(参考訳): HyCoRA: ロールプレイングのためのハイパーコントラストなロール適応学習
- Authors: Shihao Yang, Zhicong Lu, Yong Yang, Bo Lv, Yang Shen, Nayu Liu,
- Abstract要約: マルチキャラクタロールプレイングは、モデルに様々なロールをシミュレートする能力を持たせることを目的としている。
本稿では,HyCoRA: Hyper-Contrastive Role-Adaptive Learningフレームワークを提案する。
- 参考スコア(独自算出の注目度): 44.29064362634048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-character role-playing aims to equip models with the capability to simulate diverse roles. Existing methods either use one shared parameterized module across all roles or assign a separate parameterized module to each role. However, the role-shared module may ignore distinct traits of each role, weakening personality learning, while the role-specific module may overlook shared traits across multiple roles, hindering commonality modeling. In this paper, we propose a novel HyCoRA: Hyper-Contrastive Role-Adaptive learning framework, which efficiently improves multi-character role-playing ability by balancing the learning of distinct and shared traits. Specifically, we propose a Hyper-Half Low-Rank Adaptation structure, where one half is a role-specific module generated by a lightweight hyper-network, and the other half is a trainable role-shared module. The role-specific module is devised to represent distinct persona signatures, while the role-shared module serves to capture common traits. Moreover, to better reflect distinct personalities across different roles, we design a hyper-contrastive learning mechanism to help the hyper-network distinguish their unique characteristics. Extensive experimental results on both English and Chinese available benchmarks demonstrate the superiority of our framework. Further GPT-4 evaluations and visual analyses also verify the capability of HyCoRA to capture role characteristics.
- Abstract(参考訳): マルチキャラクタロールプレイングは、モデルに様々なロールをシミュレートする能力を持たせることを目的としている。
既存のメソッドは、すべてのロールで1つの共有パラメータ化モジュールを使用するか、それぞれのロールに別のパラメータ化モジュールを割り当てる。
しかしながら、ロール共有モジュールは各ロールの異なる特性を無視し、パーソナリティ学習を弱め、ロール固有モジュールは複数のロールにまたがる共有特性を見落とし、共通性モデリングを妨げる可能性がある。
本稿では,異なる特性と共有特性の学習のバランスをとることで,マルチキャラクタ・ロールプレイング能力を効率的に向上するHyCoRA: Hyper-Contrastive Role-Adaptive Learningフレームワークを提案する。
具体的には、一方が軽量なハイパーネットワークによって生成されたロール固有モジュールであり、もう一方がトレーニング可能なロール共有モジュールであるHyper-Half Low-Rank Adaptation構造を提案する。
ロール固有のモジュールは、異なるペルソナシグネチャを表現するために考案され、ロール共有モジュールは共通の特性をキャプチャする。
さらに,異なる役割にまたがる異なる個性をよりよく反映するために,ハイパーネットワークがそれぞれの特徴を識別するのに役立つ,ハイパーコントラスト学習機構を設計する。
英語と中国語のベンチマークによる大規模な実験結果は、我々のフレームワークの優位性を示している。
さらにGPT-4の評価と視覚分析により,HyCoRAによる役割特性の把握能力も検証された。
関連論文リスト
- RoleMRC: A Fine-Grained Composite Benchmark for Role-Playing and Instruction-Following [31.80357046048002]
ロールプレイングは、大規模言語モデルにとって、多様な指示に従うことが重要である。
既存のロールプレイングデータセットは、主にロールスタイルと知識境界の制御に寄与する。
本稿では,RoleMRCという詳細なロールプレイングと命令フォローのベンチマークを紹介する。
論文 参考訳(メタデータ) (2025-02-17T03:08:37Z) - Large Language Models are Superpositions of All Characters: Attaining
Arbitrary Role-play via Self-Alignment [62.898963074989766]
本稿では,ロールプレイのための自己アライメント手法であるDittoを紹介する。
この方法は4000文字からなるロールプレイトレーニングセットを生成し、現在利用可能なデータセットのスケールを10倍に超える。
本稿では,ロールプレイ領域におけるクロススーパービジョンアライメント実験について紹介する。
論文 参考訳(メタデータ) (2024-01-23T03:56:22Z) - RoleLLM: Benchmarking, Eliciting, and Enhancing Role-Playing Abilities of Large Language Models [107.00832724504752]
大規模言語モデル(LLM)におけるロールプレイング能力をベンチマークし、評価し、拡張するフレームワークであるRoleLLMを紹介する。
Context-InstructとRoleGPTによって、168,093サンプルでロールプレイする最初の体系的できめ細かい文字レベルのベンチマークデータセットであるRoleBenchを作成します。
論文 参考訳(メタデータ) (2023-10-01T17:52:59Z) - Policy Diagnosis via Measuring Role Diversity in Cooperative Multi-agent
RL [107.58821842920393]
我々はエージェントの行動差を定量化し、bfロールの多様性を通して政策パフォーマンスとの関係を構築する
MARLの誤差は, 役割多様性と強い関係を持つ3つの部分に分けられる。
分解された要因は3つの一般的な方向における政策最適化に大きな影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-06-01T04:58:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。