論文の概要: ChatHaruhi: Reviving Anime Character in Reality via Large Language Model
- arxiv url: http://arxiv.org/abs/2308.09597v1
- Date: Fri, 18 Aug 2023 14:50:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 12:48:32.994179
- Title: ChatHaruhi: Reviving Anime Character in Reality via Large Language Model
- Title(参考訳): ChatHaruhi: 大規模言語モデルによる現実のアニメキャラクターの復活
- Authors: Cheng Li, Ziang Leng, Chenxi Yan, Junyi Shen, Hao Wang, Weishi MI,
Yaying Fei, Xiaoyang Feng, Song Yan, HaoSheng Wang, Linkang Zhan, Yaokai Jia,
Pingyu Wu, Haozhen Sun
- Abstract要約: 改良されたプロンプトとスクリプトから抽出した文字の記憶によって言語モデルを制御するアルゴリズムを提案する。
我々は,中国語/英語テレビ/アニメの32文字を54k以上の模擬対話でカバーするChatHaruhiを構築した。
- 参考スコア(独自算出の注目度): 6.7974399322882935
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Role-playing chatbots built on large language models have drawn interest, but
better techniques are needed to enable mimicking specific fictional characters.
We propose an algorithm that controls language models via an improved prompt
and memories of the character extracted from scripts. We construct ChatHaruhi,
a dataset covering 32 Chinese / English TV / anime characters with over 54k
simulated dialogues. Both automatic and human evaluations show our approach
improves role-playing ability over baselines. Code and data are available at
https://github.com/LC1332/Chat-Haruhi-Suzumiya .
- Abstract(参考訳): 大きな言語モデル上に構築されたロールプレイングチャットボットは関心を集めているが、特定の架空のキャラクターを模倣するためのより良い技術が必要である。
スクリプトから抽出した文字のプロンプトと記憶を改善し,言語モデルを制御するアルゴリズムを提案する。
我々は,中国語/英語テレビ/アニメの32文字を54k以上の模擬対話でカバーするChatHaruhiを構築した。
自動評価も人間評価も,ベースラインよりもロールプレイング能力が向上することを示す。
コードとデータはhttps://github.com/LC1332/Chat-Haruhi-Suzumiyaで公開されている。
関連論文リスト
- HonkaiChat: Companions from Anime that feel alive! [6.523381601417928]
本稿では,会話プロンプトに動的イベントを埋め込むことにより,制約に対処するイベント駆動対話フレームワークを提案する。
覚醒を減らしながら、会話のエンゲージメントと自然さを著しく向上させることが、イベント駆動のプロンプトによって示される。
論文 参考訳(メタデータ) (2025-01-05T13:02:02Z) - What if Red Can Talk? Dynamic Dialogue Generation Using Large Language Models [0.0]
本稿では,大規模言語モデル(LLM)を用いて動的かつ文脈的に適切な文字相互作用を生成する対話フィラーフレームワークを提案する。
The Final Fantasy VII Remake and Pokemonの環境でこのフレームワークをテストする。
本研究の目的は,よりニュアンスの高いフィラーダイアログ作成を支援することであり,それによってプレイヤーの没入感を高め,RPG体験の全般的向上を図ることである。
論文 参考訳(メタデータ) (2024-07-29T19:12:18Z) - Capturing Minds, Not Just Words: Enhancing Role-Playing Language Models with Personality-Indicative Data [58.92110996840019]
本稿では、パーソナリティを指標としたデータを用いて、ロールプレイング言語モデル(RPLM)を強化することを提案する。
具体的には、心理学的尺度からの質問を活用し、高度なRPAを蒸留し、文字の心を把握した対話を生成する。
実験により,本データセットを用いてトレーニングしたRPLMは,一般人格関連評価と人格関連評価の両面において,高度なロールプレイング能力を示した。
論文 参考訳(メタデータ) (2024-06-27T06:24:00Z) - Crafting Customisable Characters with LLMs: Introducing SimsChat, a Persona-Driven Role-Playing Agent Framework [29.166067413153353]
大きな言語モデル(LLM)は、命令を理解し、人間に似たテキストを生成する素晴らしい能力を示す。
実世界のキャラクターをシミュレートするためにLLMを利用するCustomisable Conversation Agent Frameworkを導入する。
我々は,様々な現実的な設定を取り入れた自由にカスタマイズ可能なロールプレイングエージェントであるSimsChatを紹介する。
論文 参考訳(メタデータ) (2024-06-25T22:44:17Z) - CharacterGLM: Customizing Chinese Conversational AI Characters with
Large Language Models [66.4382820107453]
本稿では,ChatGLM上に構築されたモデルである characterGLM について紹介する。
我々のキャラクタGLMは文字ベースの対話(CharacterDial)を生成するために設計されており、人間固有の社会的欲求と感情的欲求を満たすための文字カスタマイズを備えた対話型AIシステムを実現することを目的としている。
論文 参考訳(メタデータ) (2023-11-28T14:49:23Z) - ChatAnything: Facetime Chat with LLM-Enhanced Personas [87.76804680223003]
多様な音声・外観生成のための音声(MoV)とディフューザ(MoD)の混合を提案する。
MoVでは,テキスト音声合成(TTS)アルゴリズムを様々な事前定義された音色で活用する。
近年普及しているテキスト・画像生成技術とトーキングヘッドアルゴリズムを組み合わせることで,音声オブジェクトの生成プロセスの合理化を図る。
論文 参考訳(メタデータ) (2023-11-12T08:29:41Z) - CHAMPAGNE: Learning Real-world Conversation from Large-Scale Web Videos [75.37313546008639]
本稿では,視覚的文脈を考慮した会話生成モデルCHAMPAGNEを紹介する。
CHAMPAGNEを訓練するために,大規模な18Mビデオ対話コーパスであるChAMPAGNEを収集・リリースする。
論文 参考訳(メタデータ) (2023-03-17T01:10:33Z) - Large Language Models Meet Harry Potter: A Bilingual Dataset for
Aligning Dialogue Agents with Characters [70.84938803753062]
本稿では,対話エージェントと文字アライメントの研究を進めるために設計されたHarry Potter Dialogueデータセットを紹介する。
このデータセットはハリー・ポッターシリーズのすべての対話セッション(英語と中国語の両方)を含んでいる。
対話シーン、話者、人物関係、属性など、重要な背景情報とともに注釈付けされている。
論文 参考訳(メタデータ) (2022-11-13T10:16:39Z) - Can Language Models Make Fun? A Case Study in Chinese Comical Crosstalk [12.349133310758562]
自然言語生成が人間のようにユーモアを発生させるかどうかを予備的に検証することを目的としている。
我々は,Scratch Seq2seq,微調整中規模PLM,大規模PLMなど,様々な世代のアプローチをベンチマークする。
結論として,大規模PLMを用いてユーモア生成を大幅に改善することができるが,まだ初期段階にある。
論文 参考訳(メタデータ) (2022-07-02T04:30:07Z) - Pchatbot: A Large-Scale Dataset for Personalized Chatbot [49.16746174238548]
本稿では,Weibo と Judicial のフォーラムから収集した2つのサブセットを含む大規模対話データセットである Pchatbot を紹介する。
生データセットを対話システムに適応させるため、匿名化などのプロセスを通じて生データセットを精巧に正規化する。
Pchatbotのスケールは、既存の中国のデータセットよりも大幅に大きく、データ駆動モデルの恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2020-09-28T12:49:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。