論文の概要: ERABAL: Enhancing Role-Playing Agents through Boundary-Aware Learning
- arxiv url: http://arxiv.org/abs/2409.14710v1
- Date: Tue, 22 Oct 2024 09:00:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 21:23:54.417654
- Title: ERABAL: Enhancing Role-Playing Agents through Boundary-Aware Learning
- Title(参考訳): ERABAL:境界認識学習によるロールプレイングエージェントの強化
- Authors: Yihong Tang, Jiao Ou, Che Liu, Fuzheng Zhang, Di Zhang, Kun Gai,
- Abstract要約: ヒューマン・コンピュータ・インタラクション(HCI)分野におけるロールプレイング
大幅な進歩にもかかわらず、ロールプレイングエージェント(RPLA)は、会話間のロール一貫性を維持するのに依然として苦労している。
境界認識学習によるロールプレイング能力向上を目的としたフレームワークであるERABALを提案する。
- 参考スコア(独自算出の注目度): 17.5855800570993
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Role-playing is an emerging application in the field of Human-Computer Interaction (HCI), primarily implemented through the alignment training of a large language model (LLM) with assigned characters. Despite significant progress, role-playing agents (RPLAs) still struggle with maintaining role-consistency across conversations, particularly when confronted with boundary queries subtly related to character attributes. In this paper, we present ERABAL, a framework aimed at enhancing RPLAs' role-playing capabilities through boundary-aware learning. ERABAL encompasses a generation pipeline for role-specific dialogues and a concomitant methodology for alignment training. Through comprehensive evaluations, we demonstrate that ERABAL is both efficient and effective. By training with significantly fewer dialogues than those used in leading approaches, ERABAL achieves notable improvements across WikiRoleEval, CharacterEval, and the role-playing subset of MT-Bench compared to the generalist baseline models. Our code and datasets will be made publicly available to support further research.
- Abstract(参考訳): ロールプレイングはヒューマン・コンピュータ・インタラクション(HCI)分野における新興のアプリケーションであり、主に割り当てられた文字と大きな言語モデル(LLM)のアライメントトレーニングによって実装されている。
大幅な進歩にもかかわらず、ロールプレイングエージェント(RPLA)は、特にキャラクタ属性と微妙に関連する境界クエリに直面する場合、会話間のロール一貫性を維持するのに依然として苦労している。
本稿では,境界認識学習によるロールプレイング能力向上を目的としたフレームワークであるERABALを提案する。
ERABALは、ロール固有の対話のための生成パイプラインと、アライメントトレーニングのための共用方法論を含んでいる。
包括的な評価を通じて,ERABALは効率的かつ効果的であることを示す。
主要なアプローチよりもはるかに少ないダイアログによるトレーニングにより、ERABALは、一般的なベースラインモデルと比較して、WikiRoleEval、 characterEval、およびMT-Benchのロールプレイングサブセット間で顕著な改善を実現している。
私たちのコードとデータセットは、さらなる研究をサポートするために公開されます。
関連論文リスト
- BEYOND DIALOGUE: A Profile-Dialogue Alignment Framework Towards General Role-Playing Language Model [12.617285298415013]
大規模言語モデル(LLM)の急速な進歩はロールプレイングに革命をもたらし、一般的なロールプレイングモデルの開発を可能にした。
現在のロールプレイングトレーニングには2つの大きな問題がある: (I) 特定のシナリオに対する対話トレーニングを促すために事前に定義されたロールプロファイルを使用することで、対話とプロファイルの間に矛盾や矛盾が生じ、トレーニングバイアスが生じる。
我々はこれらのハードルを克服するために、DIALOGUEと呼ばれるシンプルで効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-20T14:47:38Z) - MORPHEUS: Modeling Role from Personalized Dialogue History by Exploring and Utilizing Latent Space [16.508815826492814]
従来のパーソナライズド・ダイアログ生成(PDG)は、外部ロールデータに依存しており、プライバシーの懸念を生じさせる可能性がある。
textbfPersonalized Dialogue textbfHistory by textbfExploring and textbfUtilizing Latent textbfSpace (MORPHEUS) through a three-stage training process。
論文 参考訳(メタデータ) (2024-07-02T15:12:34Z) - Capturing Minds, Not Just Words: Enhancing Role-Playing Language Models with Personality-Indicative Data [58.92110996840019]
本稿では、パーソナリティを指標としたデータを用いて、ロールプレイング言語モデル(RPLM)を強化することを提案する。
具体的には、心理学的尺度からの質問を活用し、高度なRPAを蒸留し、文字の心を把握した対話を生成する。
実験により,本データセットを用いてトレーニングしたRPLMは,一般人格関連評価と人格関連評価の両面において,高度なロールプレイング能力を示した。
論文 参考訳(メタデータ) (2024-06-27T06:24:00Z) - Peer Review as A Multi-Turn and Long-Context Dialogue with Role-Based Interactions [62.0123588983514]
大規模言語モデル(LLM)は様々な分野にまたがる幅広い応用を実証してきた。
我々は、ピアレビュープロセスを多ターン長文対話として再構築し、著者、レビュアー、意思決定者に対して異なる役割を担っている。
複数の情報源から収集された92,017件のレビューを含む26,841件の論文を含む包括的データセットを構築した。
論文 参考訳(メタデータ) (2024-06-09T08:24:17Z) - Prompt Framework for Role-playing: Generation and Evaluation [3.2845546753303867]
大規模言語モデル(LLM)は、自然言語生成、ユーザ命令の理解、人間に似た言語使用のエミュレートにおいて、優れた習熟度を示す。
このプロジェクトでは、ロールプレイング対話データセットの生成にGPTの機能を活用するために設計されたプロンプトベースのフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-06-02T06:09:56Z) - Enhancing Role-playing Systems through Aggressive Queries: Evaluation and Improvement [17.5855800570993]
大言語モデル(LLM)は、特にロールプレイングシステム(RPS)分野において、対話生成を新しい領域に推進している。
既存のLLMベースのRSSは、境界シナリオで複雑なクエリと閉じ込められたクエリを扱う場合、役割と整合するのに依然として苦労している。
本研究は,MORTISE (Modular Orchestrated Trap-setting Interaction SystEm) を設計し,ロールプレイングLLMの性能向上を図る。
論文 参考訳(メタデータ) (2024-02-16T12:12:05Z) - Large Language Models are Superpositions of All Characters: Attaining
Arbitrary Role-play via Self-Alignment [62.898963074989766]
本稿では,ロールプレイのための自己アライメント手法であるDittoを紹介する。
この方法は4000文字からなるロールプレイトレーニングセットを生成し、現在利用可能なデータセットのスケールを10倍に超える。
本稿では,ロールプレイ領域におけるクロススーパービジョンアライメント実験について紹介する。
論文 参考訳(メタデータ) (2024-01-23T03:56:22Z) - RoleLLM: Benchmarking, Eliciting, and Enhancing Role-Playing Abilities of Large Language Models [107.00832724504752]
大規模言語モデル(LLM)におけるロールプレイング能力をベンチマークし、評価し、拡張するフレームワークであるRoleLLMを紹介する。
Context-InstructとRoleGPTによって、168,093サンプルでロールプレイする最初の体系的できめ細かい文字レベルのベンチマークデータセットであるRoleBenchを作成します。
論文 参考訳(メタデータ) (2023-10-01T17:52:59Z) - JoTR: A Joint Transformer and Reinforcement Learning Framework for
Dialog Policy Learning [53.83063435640911]
対話政策学習(DPL)は対話モデリングの重要な構成要素である。
フレキシブルな対話行動を生成するための新しいフレームワークであるJoTRを導入する。
従来の方法とは異なり、JoTRはよりダイナミックで適応可能な対話アクション生成を可能にするワードレベルのポリシーを定式化している。
論文 参考訳(メタデータ) (2023-09-01T03:19:53Z) - RODE: Learning Roles to Decompose Multi-Agent Tasks [69.56458960841165]
ロールベースの学習は、ロールを使って複雑なタスクを分解することで、スケーラブルなマルチエージェント学習を実現するという約束を持っている。
本稿では,まず,環境および他のエージェントに対する影響に応じて協調行動空間をクラスタリングすることで,制約された役割行動空間に分解することを提案する。
これらの進歩により、我々の手法は、挑戦的なStarCraft IIマイクロマネジメントベンチマークを構成する14シナリオのうち10シナリオにおいて、現在の最先端のMARLアルゴリズムよりも優れています。
論文 参考訳(メタデータ) (2020-10-04T09:20:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。