論文の概要: CharacterGLM: Customizing Chinese Conversational AI Characters with
Large Language Models
- arxiv url: http://arxiv.org/abs/2311.16832v1
- Date: Tue, 28 Nov 2023 14:49:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 18:03:27.426629
- Title: CharacterGLM: Customizing Chinese Conversational AI Characters with
Large Language Models
- Title(参考訳): characterGLM: 大規模言語モデルによる中国語会話型AI文字のカスタマイズ
- Authors: Jinfeng Zhou, Zhuang Chen, Dazhen Wan, Bosi Wen, Yi Song, Jifan Yu,
Yongkang Huang, Libiao Peng, Jiaming Yang, Xiyao Xiao, Sahand Sabour, Xiaohan
Zhang, Wenjing Hou, Yijia Zhang, Yuxiao Dong, Jie Tang, Minlie Huang
- Abstract要約: 本稿では,ChatGLM上に構築されたモデルである characterGLM について紹介する。
我々のキャラクタGLMは文字ベースの対話(CharacterDial)を生成するために設計されており、人間固有の社会的欲求と感情的欲求を満たすための文字カスタマイズを備えた対話型AIシステムを実現することを目的としている。
- 参考スコア(独自算出の注目度): 66.4382820107453
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present CharacterGLM, a series of models built upon
ChatGLM, with model sizes ranging from 6B to 66B parameters. Our CharacterGLM
is designed for generating Character-based Dialogues (CharacterDial), which
aims to equip a conversational AI system with character customization for
satisfying people's inherent social desires and emotional needs. On top of
CharacterGLM, we can customize various AI characters or social agents by
configuring their attributes (identities, interests, viewpoints, experiences,
achievements, social relationships, etc.) and behaviors (linguistic features,
emotional expressions, interaction patterns, etc.). Our model outperforms most
mainstream close-source large langauge models, including the GPT series,
especially in terms of consistency, human-likeness, and engagement according to
manual evaluations. We will release our 6B version of CharacterGLM and a subset
of training data to facilitate further research development in the direction of
character-based dialogue generation.
- Abstract(参考訳): 本稿では,chatglm上に構築された一連のモデルであるcharactglmについて,モデルサイズが6bから66bのパラメータを持つモデルについて述べる。
我々のキャラクタGLMは文字ベースの対話(CharacterDial)を生成するために設計されており、人間固有の社会的欲求と感情的欲求を満たすための文字カスタマイズを備えた対話型AIシステムを実現することを目的としている。
CharacterGLMの上に、属性(アイデンティティ、関心、視点、経験、達成、社会関係など)と行動(言語的特徴、感情的表現、相互作用パターンなど)を設定することで、さまざまなAIキャラクターやソーシャルエージェントをカスタマイズできます。
我々のモデルは、GPTシリーズ、特に一貫性、人間らしく、そして手作業による評価によるエンゲージメントなど、最も主流なオープンソースの大規模ランガウジュモデルより優れています。
我々は,キャラクタGLMの6Bバージョンとトレーニングデータのサブセットをリリースし,文字ベースの対話生成の方向性に関するさらなる研究を促進する。
関連論文リスト
- Exploring the Potential of Large Language Models to Simulate Personality [39.58317527488534]
我々は,大言語モデル(LLM)を用いて,ビッグファイブモデルに従って個人特性をシミュレートすることを目指している。
本稿では,事前に定義された5つの特徴を持つ生成テキストのデータセットを提示し,パーソナリティスキルのシミュレーションに基づいてLLMをテストするための分析フレームワークを提供する。
論文 参考訳(メタデータ) (2025-02-12T10:17:18Z) - OpenCharacter: Training Customizable Role-Playing LLMs with Large-Scale Synthetic Personas [65.83634577897564]
本研究では,文字一般化機能を備えた大規模言語モデルを実現するための大規模データ合成手法について検討する。
まず、ペルソナハブのペルソナを用いて、大規模な文字プロファイルを合成することから始める。
次に、応答書き換えと応答生成という2つの戦略を検討し、文字対応の命令応答を生成する。
論文 参考訳(メタデータ) (2025-01-26T07:07:01Z) - CharacterBench: Benchmarking Character Customization of Large Language Models [80.29164862682063]
我々は,最大2言語生成ベンチマークである characterBench を提案し,3,956 文字を含む22,859 人の注釈付きサンプルを作成した。
我々は,各応答に現れる特定の次元によって評価される特徴量に基づいて,スパース次元と密度次元に分類される6つの側面の11次元を定義する。
また,コスト効率と安定した評価のためのキャラクタジャッジモデルも開発している。
論文 参考訳(メタデータ) (2024-12-16T15:55:34Z) - CharacterBox: Evaluating the Role-Playing Capabilities of LLMs in Text-Based Virtual Worlds [74.02480671181685]
ロールプレイングは大規模言語モデル(LLM)の重要な機能である
現在の評価手法は, 実演に不可欠なニュアンス特性や動作を適切に把握するに足りていない。
本研究では,キャラクタボックスを提案する。キャラクタボックスは,キャラクタの微粒な挙動を再現するシミュレーションサンドボックスである。
論文 参考訳(メタデータ) (2024-12-07T12:09:35Z) - Capturing Minds, Not Just Words: Enhancing Role-Playing Language Models with Personality-Indicative Data [58.92110996840019]
本稿では、パーソナリティを指標としたデータを用いて、ロールプレイング言語モデル(RPLM)を強化することを提案する。
具体的には、心理学的尺度からの質問を活用し、高度なRPAを蒸留し、文字の心を把握した対話を生成する。
実験により,本データセットを用いてトレーニングしたRPLMは,一般人格関連評価と人格関連評価の両面において,高度なロールプレイング能力を示した。
論文 参考訳(メタデータ) (2024-06-27T06:24:00Z) - RoleCraft-GLM: Advancing Personalized Role-Playing in Large Language Models [6.753588449962107]
RoleCraft-GLMは、大規模言語モデル(LLM)によるパーソナライズされたロールプレイングの強化を目的とした革新的なフレームワークである。
従来の有名人中心のキャラクターから多彩な非有名人ペルソナへとシフトする、ユニークな会話データセットをコントリビュートする。
私たちのアプローチには、細心の注意深いキャラクタ開発、対話が現実的かつ感情的に共鳴することを保証することが含まれる。
論文 参考訳(メタデータ) (2023-12-17T17:57:50Z) - Enhancing Personalized Dialogue Generation with Contrastive Latent
Variables: Combining Sparse and Dense Persona [16.90863217077699]
既存のパーソナライズされた対話エージェントは、スパースまたは密集したペルソナ記述と対話履歴という3つのリソースからペルソナプロファイルをモデル化する。
3つのリソースの利点を組み合わせて、より豊かで正確なペルソナを得る。
中国語と英語のデータセットに対する実験結果は、パーソナライゼーションにおけるモデルの優位性を示している。
論文 参考訳(メタデータ) (2023-05-19T07:24:27Z) - Large Language Models Meet Harry Potter: A Bilingual Dataset for
Aligning Dialogue Agents with Characters [70.84938803753062]
本稿では,対話エージェントと文字アライメントの研究を進めるために設計されたHarry Potter Dialogueデータセットを紹介する。
このデータセットはハリー・ポッターシリーズのすべての対話セッション(英語と中国語の両方)を含んでいる。
対話シーン、話者、人物関係、属性など、重要な背景情報とともに注釈付けされている。
論文 参考訳(メタデータ) (2022-11-13T10:16:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。