論文の概要: CharacterGLM: Customizing Chinese Conversational AI Characters with
Large Language Models
- arxiv url: http://arxiv.org/abs/2311.16832v1
- Date: Tue, 28 Nov 2023 14:49:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 18:03:27.426629
- Title: CharacterGLM: Customizing Chinese Conversational AI Characters with
Large Language Models
- Title(参考訳): characterGLM: 大規模言語モデルによる中国語会話型AI文字のカスタマイズ
- Authors: Jinfeng Zhou, Zhuang Chen, Dazhen Wan, Bosi Wen, Yi Song, Jifan Yu,
Yongkang Huang, Libiao Peng, Jiaming Yang, Xiyao Xiao, Sahand Sabour, Xiaohan
Zhang, Wenjing Hou, Yijia Zhang, Yuxiao Dong, Jie Tang, Minlie Huang
- Abstract要約: 本稿では,ChatGLM上に構築されたモデルである characterGLM について紹介する。
我々のキャラクタGLMは文字ベースの対話(CharacterDial)を生成するために設計されており、人間固有の社会的欲求と感情的欲求を満たすための文字カスタマイズを備えた対話型AIシステムを実現することを目的としている。
- 参考スコア(独自算出の注目度): 66.4382820107453
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present CharacterGLM, a series of models built upon
ChatGLM, with model sizes ranging from 6B to 66B parameters. Our CharacterGLM
is designed for generating Character-based Dialogues (CharacterDial), which
aims to equip a conversational AI system with character customization for
satisfying people's inherent social desires and emotional needs. On top of
CharacterGLM, we can customize various AI characters or social agents by
configuring their attributes (identities, interests, viewpoints, experiences,
achievements, social relationships, etc.) and behaviors (linguistic features,
emotional expressions, interaction patterns, etc.). Our model outperforms most
mainstream close-source large langauge models, including the GPT series,
especially in terms of consistency, human-likeness, and engagement according to
manual evaluations. We will release our 6B version of CharacterGLM and a subset
of training data to facilitate further research development in the direction of
character-based dialogue generation.
- Abstract(参考訳): 本稿では,chatglm上に構築された一連のモデルであるcharactglmについて,モデルサイズが6bから66bのパラメータを持つモデルについて述べる。
我々のキャラクタGLMは文字ベースの対話(CharacterDial)を生成するために設計されており、人間固有の社会的欲求と感情的欲求を満たすための文字カスタマイズを備えた対話型AIシステムを実現することを目的としている。
CharacterGLMの上に、属性(アイデンティティ、関心、視点、経験、達成、社会関係など)と行動(言語的特徴、感情的表現、相互作用パターンなど)を設定することで、さまざまなAIキャラクターやソーシャルエージェントをカスタマイズできます。
我々のモデルは、GPTシリーズ、特に一貫性、人間らしく、そして手作業による評価によるエンゲージメントなど、最も主流なオープンソースの大規模ランガウジュモデルより優れています。
我々は,キャラクタGLMの6Bバージョンとトレーニングデータのサブセットをリリースし,文字ベースの対話生成の方向性に関するさらなる研究を促進する。
関連論文リスト
- LLM Roleplay: Simulating Human-Chatbot Interaction [52.03241266241294]
本研究では,人間とチャットボットの対話をシミュレートする多元多元対話を自動生成する,目標指向のペルソナに基づく手法を提案する。
本手法は,人間とチャットボットの対話を高い相違率でシミュレートすることができる。
論文 参考訳(メタデータ) (2024-07-04T14:49:46Z) - Capturing Minds, Not Just Words: Enhancing Role-Playing Language Models with Personality-Indicative Data [58.92110996840019]
本稿では、パーソナリティを指標としたデータを用いて、ロールプレイング言語モデル(RPLM)を強化することを提案する。
具体的には、心理学的尺度からの質問を活用し、高度なRPAを蒸留し、文字の心を把握した対話を生成する。
実験により,本データセットを用いてトレーニングしたRPLMは,一般人格関連評価と人格関連評価の両面において,高度なロールプレイング能力を示した。
論文 参考訳(メタデータ) (2024-06-27T06:24:00Z) - Crafting Customisable Characters with LLMs: Introducing SimsChat, a Persona-Driven Role-Playing Agent Framework [29.166067413153353]
大きな言語モデル(LLM)は人間の指示を理解し、高品質なテキストを生成する。
LLMを利用して実世界のキャラクターをシミュレートするCustomisable Conversation Agent Frameworkを導入する。
我々は、自由にカスタマイズ可能なロールプレイングエージェントであるSimsChatを紹介する。
論文 参考訳(メタデータ) (2024-06-25T22:44:17Z) - RoleCraft-GLM: Advancing Personalized Role-Playing in Large Language Models [6.753588449962107]
RoleCraft-GLMは、大規模言語モデル(LLM)によるパーソナライズされたロールプレイングの強化を目的とした革新的なフレームワークである。
従来の有名人中心のキャラクターから多彩な非有名人ペルソナへとシフトする、ユニークな会話データセットをコントリビュートする。
私たちのアプローチには、細心の注意深いキャラクタ開発、対話が現実的かつ感情的に共鳴することを保証することが含まれる。
論文 参考訳(メタデータ) (2023-12-17T17:57:50Z) - BotChat: Evaluating LLMs' Capabilities of Having Multi-Turn Dialogues [72.65163468440434]
本報告では,人間型マルチターンチャットのための既存大規模言語モデルの予備的評価を行う。
そこで我々は,ChatSEEDに基づくマルチターン対話を発話によって生成する大規模言語モデル(LLM)を提案する。
GPT-4は優れた品質の人型多元対話を生成できるが、その性能は著しく上回っている。
論文 参考訳(メタデータ) (2023-10-20T16:53:51Z) - Enhancing Personalized Dialogue Generation with Contrastive Latent
Variables: Combining Sparse and Dense Persona [16.90863217077699]
既存のパーソナライズされた対話エージェントは、スパースまたは密集したペルソナ記述と対話履歴という3つのリソースからペルソナプロファイルをモデル化する。
3つのリソースの利点を組み合わせて、より豊かで正確なペルソナを得る。
中国語と英語のデータセットに対する実験結果は、パーソナライゼーションにおけるモデルの優位性を示している。
論文 参考訳(メタデータ) (2023-05-19T07:24:27Z) - Hi Sheldon! Creating Deep Personalized Characters from TV Shows [52.8086853239762]
我々は,テレビ番組などのマルチモーダルデータからマルチモーダルなチャットパーソナライズされた文字を生成する,Deep Personalized Character Creation (DPCC) という新しいタスクを提案する。
単一または複数モードの入力(テキスト、オーディオ、ビデオ)が与えられた場合、DPCCの目標はマルチモードの応答(テキスト、オーディオ、ビデオ)を生成することである。
この課題を支援するために,TV番組から「ディープパーソナライズ・キャラクタ・データセット(DPCD)」という文字中心の多モーダル対話データセットをさらに収集する。
DPCDには10k発話と6時間音声/の文字特異的多モーダル対話データが含まれている。
論文 参考訳(メタデータ) (2023-04-09T00:39:43Z) - Large Language Models Meet Harry Potter: A Bilingual Dataset for
Aligning Dialogue Agents with Characters [70.84938803753062]
本稿では,対話エージェントと文字アライメントの研究を進めるために設計されたHarry Potter Dialogueデータセットを紹介する。
このデータセットはハリー・ポッターシリーズのすべての対話セッション(英語と中国語の両方)を含んでいる。
対話シーン、話者、人物関係、属性など、重要な背景情報とともに注釈付けされている。
論文 参考訳(メタデータ) (2022-11-13T10:16:39Z) - Estimating the Personality of White-Box Language Models [0.589889361990138]
大規模なテキストコーパスで訓練された大規模言語モデルは、至る所で広範囲のアプリケーションで使用されている。
既存の研究は、これらのモデルが人間の偏見を捉え、捉えていることを示している。
これらのバイアス、特に害を引き起こす可能性のあるバイアスの多くは、十分に調査されている。
しかし、これらのモデルによって受け継がれた人間の性格特性を推測し、変化させる研究は、ほとんど、あるいは存在しない。
論文 参考訳(メタデータ) (2022-04-25T23:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。