論文の概要: Neeko: Leveraging Dynamic LoRA for Efficient Multi-Character
Role-Playing Agent
- arxiv url: http://arxiv.org/abs/2402.13717v1
- Date: Wed, 21 Feb 2024 11:30:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 15:41:42.072819
- Title: Neeko: Leveraging Dynamic LoRA for Efficient Multi-Character
Role-Playing Agent
- Title(参考訳): neeko: dynamic loraを活用した効率的なマルチキャラクタロールプレイングエージェント
- Authors: Xiaoyan Yu, Tongxu Luo, Yifan Wei, Fangyu Lei, Yiming Huang, Peng Hao,
Liehuang Zhu
- Abstract要約: Neekoは、効率的なマルチキャラクタ模倣のために設計された革新的なフレームワークである。
本フレームワークは,ロールプレイングのプロセスをエージェント事前学習,複数キャラクタプレイ,文字インクリメンタル学習に分解する。
- 参考スコア(独自算出の注目度): 18.966466924272144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have revolutionized open-domain dialogue agents
but encounter challenges in multi-character role-playing (MCRP) scenarios. To
address the issue, we present Neeko, an innovative framework designed for
efficient multiple characters imitation. Unlike existing methods, Neeko employs
a dynamic low-rank adapter (LoRA) strategy, enabling it to adapt seamlessly to
diverse characters. Our framework breaks down the role-playing process into
agent pre-training, multiple characters playing, and character incremental
learning, effectively handling both seen and unseen roles. This dynamic
approach, coupled with distinct LoRA blocks for each character, enhances
Neeko's adaptability to unique attributes, personalities, and speaking
patterns. As a result, Neeko demonstrates superior performance in MCRP over
most existing methods, offering more engaging and versatile user interaction
experiences. Code and data are available at
https://github.com/weiyifan1023/Neeko.
- Abstract(参考訳): 大規模言語モデル(llm)は、オープンドメインの対話エージェントに革命をもたらしたが、マルチキャラクタロールプレイング(mcrp)シナリオの課題に遭遇した。
この問題に対処するため、我々は複数の文字を効率よく模倣するための革新的なフレームワークNeekoを提示する。
既存の方法とは異なり、Neekoは動的ローランクアダプタ(LoRA)戦略を採用しており、多様な文字にシームレスに適応できる。
本フレームワークでは,ロールプレイングのプロセスをエージェント事前学習,複数キャラクタプレイ,文字インクリメンタル学習に分解し,目に見える役割と目に見えない役割の両方を効果的に扱う。
このダイナミックなアプローチは、各キャラクタの異なるローラブロックと組み合わせることで、neekoのユニークな属性、個性、発話パターンへの適応性を高める。
その結果、Neekoは既存のほとんどのメソッドよりもMCRPの優れたパフォーマンスを示し、より魅力的で汎用的なユーザーインタラクションエクスペリエンスを提供します。
コードとデータはhttps://github.com/weiyifan1023/neekoで入手できる。
関連論文リスト
- A Multi-Task Role-Playing Agent Capable of Imitating Character Linguistic Styles [28.237927070779925]
現在のロールプレイングエージェント(RPAs)は、主に言語のスタイルの複製を無視しながら、キャラクターの基本属性を模倣することに焦点を当てている。
ダイアログ,辞書,コンポジション,ストーリ生成,製品記述,音楽解説,オープン質問回答を含む7つのタスクにおいて,近年のオープンソースLLMとRPAのベースラインを著しく上回るマルチタスクロールプレイングエージェント(MRPA)であるStyleRPAを開発した。
論文 参考訳(メタデータ) (2024-11-04T02:26:27Z) - Crafting Customisable Characters with LLMs: Introducing SimsChat, a Persona-Driven Role-Playing Agent Framework [29.166067413153353]
大きな言語モデル(LLM)は人間の指示を理解し、高品質なテキストを生成する。
LLMを利用して実世界のキャラクターをシミュレートするCustomisable Conversation Agent Frameworkを導入する。
我々は、自由にカスタマイズ可能なロールプレイングエージェントであるSimsChatを紹介する。
論文 参考訳(メタデータ) (2024-06-25T22:44:17Z) - Magic Tokens: Select Diverse Tokens for Multi-modal Object Re-Identification [64.36210786350568]
マルチモーダルオブジェクトReIDのための視覚変換器から多様なトークンを選択するための,textbfEDITORという新しい学習フレームワークを提案する。
我々のフレームワークはマルチモーダルオブジェクトReIDに対してより差別的な機能を生成することができる。
論文 参考訳(メタデータ) (2024-03-15T12:44:35Z) - Multimodal Instruction Tuning with Conditional Mixture of LoRA [54.65520214291653]
本稿では,Low-Rank Adaption (LoRA) とマルチモーダル命令チューニングを統合した新しい手法を提案する。
各入力インスタンスのユニークな要求に合わせた低ランク適応行列を動的に構築することで、LoRAを革新する。
様々なマルチモーダル評価データセットの実験結果から、MixLoRAは従来のLoRAを同等以上のランクで上回るだけでなく、性能も向上していることが示された。
論文 参考訳(メタデータ) (2024-02-24T20:15:31Z) - Large Language Models are Superpositions of All Characters: Attaining
Arbitrary Role-play via Self-Alignment [62.898963074989766]
本稿では,ロールプレイのための自己アライメント手法であるDittoを紹介する。
この方法は4000文字からなるロールプレイトレーニングセットを生成し、現在利用可能なデータセットのスケールを10倍に超える。
本稿では,ロールプレイ領域におけるクロススーパービジョンアライメント実験について紹介する。
論文 参考訳(メタデータ) (2024-01-23T03:56:22Z) - RoleCraft-GLM: Advancing Personalized Role-Playing in Large Language Models [6.753588449962107]
RoleCraft-GLMは、大規模言語モデル(LLM)によるパーソナライズされたロールプレイングの強化を目的とした革新的なフレームワークである。
従来の有名人中心のキャラクターから多彩な非有名人ペルソナへとシフトする、ユニークな会話データセットをコントリビュートする。
私たちのアプローチには、細心の注意深いキャラクタ開発、対話が現実的かつ感情的に共鳴することを保証することが含まれる。
論文 参考訳(メタデータ) (2023-12-17T17:57:50Z) - MISSRec: Pre-training and Transferring Multi-modal Interest-aware
Sequence Representation for Recommendation [61.45986275328629]
逐次レコメンデーションのためのマルチモーダル事前学習・転送学習フレームワークであるMISSRecを提案する。
ユーザ側ではトランスフォーマーベースのエンコーダデコーダモデルを設計し、コンテキストエンコーダがシーケンスレベルのマルチモーダルユーザ興味を捉えることを学習する。
候補項目側では,ユーザ適応項目表現を生成するために動的融合モジュールを採用する。
論文 参考訳(メタデータ) (2023-08-22T04:06:56Z) - Generating Personas for Games with Multimodal Adversarial Imitation
Learning [47.70823327747952]
強化学習は、人間のレベルでゲームをすることができるエージェントを生産する上で、広く成功している。
強化学習を超えて進むことは、幅広い人間のプレイスタイルをモデル化するために必要である。
本稿では,プレイテストのための複数のペルソナポリシーを生成するための,新しい模倣学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T06:58:19Z) - Knowledge-Enhanced Hierarchical Graph Transformer Network for
Multi-Behavior Recommendation [56.12499090935242]
本研究では,ユーザとレコメンデータシステムにおける項目間の多種類の対話パターンを探索する知識強化階層型グラフトランスフォーマネットワーク(KHGT)を提案する。
KHGTはグラフ構造化ニューラルネットワーク上に構築され、タイプ固有の振る舞い特性をキャプチャする。
KHGTは、様々な評価設定において、最先端のレコメンデーション手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-10-08T09:44:00Z) - PsiPhi-Learning: Reinforcement Learning with Demonstrations using
Successor Features and Inverse Temporal Difference Learning [102.36450942613091]
時間差学習(ITD)と呼ばれる逆強化学習アルゴリズムを提案する。
Psi Phi$-learningと呼ばれるデモで強化学習のための新しいアルゴリズムに到達し、オンライン環境の相互作用から学習とITDをシームレスに統合する方法を示します。
論文 参考訳(メタデータ) (2021-02-24T21:12:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。