論文の概要: Crafting Customisable Characters with LLMs: Introducing SimsChat, a Persona-Driven Role-Playing Agent Framework
- arxiv url: http://arxiv.org/abs/2406.17962v3
- Date: Fri, 16 Aug 2024 08:48:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 17:59:12.123021
- Title: Crafting Customisable Characters with LLMs: Introducing SimsChat, a Persona-Driven Role-Playing Agent Framework
- Title(参考訳): LLMを使ったカスタム文字作成 - ペルソナ駆動ロールプレイングエージェントフレームワークSimsChatの紹介
- Authors: Bohao Yang, Dong Liu, Chen Tang, Chenghao Xiao, Kun Zhao, Chao Li, Lin Yuan, Guang Yang, Lanxiao Huang, Chenghua Lin,
- Abstract要約: 大きな言語モデル(LLM)は人間の指示を理解し、高品質なテキストを生成する。
LLMを利用して実世界のキャラクターをシミュレートするCustomisable Conversation Agent Frameworkを導入する。
我々は、自由にカスタマイズ可能なロールプレイングエージェントであるSimsChatを紹介する。
- 参考スコア(独自算出の注目度): 29.166067413153353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) demonstrate a remarkable ability to comprehend human instructions and generate high-quality text. This capability allows LLMs to function as agents that can emulate human beings at a more sophisticated level, beyond the mere replication of basic human behaviours. However, there is a lack of exploring into leveraging LLMs to craft characters from diverse aspects. In this work, we introduce the Customisable Conversation Agent Framework, which leverages LLMs to simulate real-world characters that can be freely customised according to various user preferences. This adaptable framework is beneficial for the design of customisable characters and role-playing agents aligned with human preferences. We propose the SimsConv dataset, which encompasses 68 different customised characters, 1,360 multi-turn role-playing dialogues, and a total of 13,971 interaction dialogues. The characters are created from several real-world elements, such as career, aspiration, trait, and skill. Building upon these foundations, we present SimsChat, a freely customisable role-playing agent. It incorporates diverse real-world scenes and topic-specific character interaction dialogues, thereby simulating characters' life experiences in various scenarios and topic-specific interactions with specific emotions. Experimental results indicate that our proposed framework achieves desirable performance and provides a valuable guideline for the construction of more accurate human simulacra in the future. Our data and code are publicly available at https://github.com/Bernard-Yang/SimsChat.
- Abstract(参考訳): 大きな言語モデル(LLM)は、人間の指示を理解し、高品質なテキストを生成する素晴らしい能力を示す。
この能力により、LSMは人間の行動の単なる複製以上の、より洗練されたレベルで人間をエミュレートできるエージェントとして機能することができる。
しかし、多様な側面から文字を作成できるLLMの活用を探求することの欠如がある。
本研究では,LLMを利用して様々なユーザの好みに応じて自由にカスタマイズできる実世界の文字をシミュレートするCustomisable Conversation Agent Frameworkを紹介する。
この適応可能なフレームワークは、カスタマイズ可能なキャラクタや、人間の好みに合わせたロールプレイングエージェントの設計に有用である。
68種類のカスタマイズ文字と1,360個のマルチターンロールプレイング対話,13,971個の対話対話を含むSimsConvデータセットを提案する。
キャラクターは、キャリア、願望、特性、スキルなど、いくつかの現実世界の要素から作られる。
これらの基盤の上に構築されたSimsChatは、自由にカスタマイズ可能なロールプレイングエージェントである。
様々な現実世界のシーンとトピック固有のキャラクターの対話を取り入れ、様々なシナリオにおけるキャラクターの生活経験をシミュレートし、特定の感情とのトピック固有の相互作用をシミュレートする。
実験結果から,提案するフレームワークは望ましい性能を達成し,将来,より正確な人間シミュラクラの構築のための貴重なガイドラインを提供することが示された。
私たちのデータとコードはhttps://github.com/Bernard-Yang/SimsChat.comで公開されています。
関連論文リスト
- The Drama Machine: Simulating Character Development with LLM Agents [1.999925939110439]
本稿では,多言語モデル (LLM) エージェントを用いたドラマティックシナリオにおける複雑な動的キャラクタのシミュレートについて検討する。
本稿では,異なる「エゴ」と「スーパーエゴ」の心理的役割を演じるLLMエージェント間の相互作用を協調するドラママシンフレームワークを提案する。
結果として、このマルチエージェントアプローチは、対話的なターンの連続を通して進化する、よりニュアンスで適応的な物語を生み出すことができることが示唆された。
論文 参考訳(メタデータ) (2024-08-03T09:40:26Z) - What if Red Can Talk? Dynamic Dialogue Generation Using Large Language Models [0.0]
本稿では,大規模言語モデル(LLM)を用いて動的かつ文脈的に適切な文字相互作用を生成する対話フィラーフレームワークを提案する。
The Final Fantasy VII Remake and Pokemonの環境でこのフレームワークをテストする。
本研究の目的は,よりニュアンスの高いフィラーダイアログ作成を支援することであり,それによってプレイヤーの没入感を高め,RPG体験の全般的向上を図ることである。
論文 参考訳(メタデータ) (2024-07-29T19:12:18Z) - LLM Roleplay: Simulating Human-Chatbot Interaction [52.03241266241294]
本研究では,人間とチャットボットの対話をシミュレートする多元多元対話を自動生成する,目標指向のペルソナに基づく手法を提案する。
本手法は,人間とチャットボットの対話を高い相違率でシミュレートすることができる。
論文 参考訳(メタデータ) (2024-07-04T14:49:46Z) - Capturing Minds, Not Just Words: Enhancing Role-Playing Language Models with Personality-Indicative Data [58.92110996840019]
本稿では、パーソナリティを指標としたデータを用いて、ロールプレイング言語モデル(RPLM)を強化することを提案する。
具体的には、心理学的尺度からの質問を活用し、高度なRPAを蒸留し、文字の心を把握した対話を生成する。
実験により,本データセットを用いてトレーニングしたRPLMは,一般人格関連評価と人格関連評価の両面において,高度なロールプレイング能力を示した。
論文 参考訳(メタデータ) (2024-06-27T06:24:00Z) - RoleCraft-GLM: Advancing Personalized Role-Playing in Large Language Models [6.753588449962107]
RoleCraft-GLMは、大規模言語モデル(LLM)によるパーソナライズされたロールプレイングの強化を目的とした革新的なフレームワークである。
従来の有名人中心のキャラクターから多彩な非有名人ペルソナへとシフトする、ユニークな会話データセットをコントリビュートする。
私たちのアプローチには、細心の注意深いキャラクタ開発、対話が現実的かつ感情的に共鳴することを保証することが含まれる。
論文 参考訳(メタデータ) (2023-12-17T17:57:50Z) - CharacterGLM: Customizing Chinese Conversational AI Characters with
Large Language Models [66.4382820107453]
本稿では,ChatGLM上に構築されたモデルである characterGLM について紹介する。
我々のキャラクタGLMは文字ベースの対話(CharacterDial)を生成するために設計されており、人間固有の社会的欲求と感情的欲求を満たすための文字カスタマイズを備えた対話型AIシステムを実現することを目的としている。
論文 参考訳(メタデータ) (2023-11-28T14:49:23Z) - Character-LLM: A Trainable Agent for Role-Playing [67.35139167985008]
大規模言語モデル(LLM)は、人間の振る舞いをシミュレートするエージェントとして用いられる。
本稿では, ベートーヴェン, クレオパトラ女王, ユリウス・カエサルなど, LLM に特定の人物として行動するように教えるキャラクタ-LLMを紹介する。
論文 参考訳(メタデータ) (2023-10-16T07:58:56Z) - Tachikuma: Understading Complex Interactions with Multi-Character and
Novel Objects by Large Language Models [67.20964015591262]
我々は,複数文字と新しいオブジェクトベースインタラクション推定タスクとサポートデータセットからなる,立久間というベンチマークを導入する。
このデータセットは、ゲームプレイ中のリアルタイム通信からログデータをキャプチャし、多様な、接地された複雑なインタラクションを提供して、さらなる探索を行う。
本稿では,対話理解の強化に有効であることを示すため,簡単なプロンプトベースラインを提案し,その性能評価を行う。
論文 参考訳(メタデータ) (2023-07-24T07:40:59Z) - Large Language Models Meet Harry Potter: A Bilingual Dataset for
Aligning Dialogue Agents with Characters [70.84938803753062]
本稿では,対話エージェントと文字アライメントの研究を進めるために設計されたHarry Potter Dialogueデータセットを紹介する。
このデータセットはハリー・ポッターシリーズのすべての対話セッション(英語と中国語の両方)を含んでいる。
対話シーン、話者、人物関係、属性など、重要な背景情報とともに注釈付けされている。
論文 参考訳(メタデータ) (2022-11-13T10:16:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。