論文の概要: Chatbot is Not All You Need: Information-rich Prompting for More
Realistic Responses
- arxiv url: http://arxiv.org/abs/2312.16233v1
- Date: Mon, 25 Dec 2023 02:18:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 20:30:12.809525
- Title: Chatbot is Not All You Need: Information-rich Prompting for More
Realistic Responses
- Title(参考訳): Chatbotは必要以上のもの:よりリアルな反応のための情報豊富なプロンプト
- Authors: Seokhoon Jeong, Assentay Makhmud
- Abstract要約: 近年のLarge Language Models (LLM) は、架空の人物や実際の人間を会話で模倣する際、顕著な能力を示している。
LLMからより現実的で一貫した応答を生成する新しい手法を提案する。
新しいベンチマークデータセットとコード、プロンプト、サンプル結果はGithubで公開しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent Large Language Models (LLMs) have shown remarkable capabilities in
mimicking fictional characters or real humans in conversational settings.
However, the realism and consistency of these responses can be further enhanced
by providing richer information of the agent being mimicked. In this paper, we
propose a novel approach to generate more realistic and consistent responses
from LLMs, leveraging five senses, attributes, emotional states, relationship
with the interlocutor, and memories. By incorporating these factors, we aim to
increase the LLM's capacity for generating natural and realistic reactions in
conversational exchanges. Through our research, we expect to contribute to the
development of LLMs that demonstrate improved capabilities in mimicking
fictional characters. We release a new benchmark dataset and all our codes,
prompts, and sample results on our Github:
https://github.com/srafsasm/InfoRichBot
- Abstract(参考訳): 近年のLarge Language Models (LLM) は、架空の人物や実際の人間を会話で模倣する際、顕著な能力を示している。
しかし、これらの応答のリアリズムと一貫性は、模倣されるエージェントのより豊かな情報を提供することによってさらに強化することができる。
本稿では,5つの感覚,属性,感情状態,対話者との関係,記憶を活用し,llmからよりリアルで一貫した応答を生成する新しい手法を提案する。
これらの要素を取り入れることで,会話交換における自然な,現実的な反応を生成するLLMの能力を高めることを目指している。
本研究を通じて,架空のキャラクターを模倣する能力の向上を示すllmの開発に寄与することを期待する。
私たちは新しいベンチマークデータセットとすべてのコード、プロンプト、サンプル結果をgithubでリリースしています。
関連論文リスト
- Real or Robotic? Assessing Whether LLMs Accurately Simulate Qualities of Human Responses in Dialogue [25.89926022671521]
我々はWildChatデータセットから10万対のLLM-LLMと人間-LLM対話の大規模データセットを生成する。
シミュレーションと人間のインタラクションの間には比較的低いアライメントが見られ、複数のテキストの性質に沿って体系的な相違が示される。
論文 参考訳(メタデータ) (2024-09-12T18:00:18Z) - Crafting Customisable Characters with LLMs: Introducing SimsChat, a Persona-Driven Role-Playing Agent Framework [29.166067413153353]
大きな言語モデル(LLM)は人間の指示を理解し、高品質なテキストを生成する。
LLMを利用して実世界のキャラクターをシミュレートするCustomisable Conversation Agent Frameworkを導入する。
我々は、自由にカスタマイズ可能なロールプレイングエージェントであるSimsChatを紹介する。
論文 参考訳(メタデータ) (2024-06-25T22:44:17Z) - Characteristic AI Agents via Large Language Models [40.10858767752735]
本研究は,特有なAIエージェント構築における大規模言語モデルの性能調査に焦点をあてる。
character100''と呼ばれるデータセットがこのベンチマークのために構築されており、ウィキペディアの言語モデルでロールプレイを行う最も訪問者の多い人々で構成されている。
実験結果から,LLMの能力向上に向けた潜在的な方向性が明らかにされた。
論文 参考訳(メタデータ) (2024-03-19T02:25:29Z) - Think Before You Speak: Cultivating Communication Skills of Large Language Models via Inner Monologue [73.69510478736483]
大規模言語モデル(LLM)は、流動的で一貫性があり多様な応答を生成する。
しかし、それらは重要な能力、コミュニケーションスキルを欠いている。
本稿は,内的モノローグによるLLMのコミュニケーション能力向上を目的としている。
実験の結果,提案したCSIM戦略はバックボーンモデルを改善し,ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-11-13T16:19:42Z) - Character-LLM: A Trainable Agent for Role-Playing [67.35139167985008]
大規模言語モデル(LLM)は、人間の振る舞いをシミュレートするエージェントとして用いられる。
本稿では, ベートーヴェン, クレオパトラ女王, ユリウス・カエサルなど, LLM に特定の人物として行動するように教えるキャラクタ-LLMを紹介する。
論文 参考訳(メタデータ) (2023-10-16T07:58:56Z) - FreshLLMs: Refreshing Large Language Models with Search Engine
Augmentation [92.43001160060376]
本研究では,現在の世界知識をテストする質問に答える文脈において,大規模言語モデル(LLM)の事実性について検討する。
多様な質問や回答のタイプを含む新しい動的QAベンチマークであるFreshQAを紹介する。
我々は,2モード評価法により,閉じたLLMとオープンソースのLLMの多種多様な配列をベンチマークし,その正しさと幻覚の両面を計測する。
これらの結果に触発されたFreshPromptは、FreshQA上でのLLMの性能を大幅に向上させる単純な数ショットプロンプトである。
論文 参考訳(メタデータ) (2023-10-05T00:04:12Z) - TouchStone: Evaluating Vision-Language Models by Language Models [91.69776377214814]
本稿では,LVLMの様々な能力を総合的に評価するために,強大な言語モデルを用いた評価手法を提案する。
オープンワールドイメージと質問からなる包括的ビジュアル対話データセットTouchStoneを構築し,5つの主要な機能カテゴリと27のサブタスクをカバーした。
GPT-4のような強力なLVLMは、テキスト機能のみを活用することで、対話品質を効果的に評価できることを実証する。
論文 参考訳(メタデータ) (2023-08-31T17:52:04Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z) - Inner Monologue: Embodied Reasoning through Planning with Language
Models [81.07216635735571]
大規模言語モデル(LLM)は自然言語処理以外の領域に適用できる。
具体化された環境でのLLMの計画には、何をすべきかだけでなく、どのように、いつ行うべきかを考える必要がある。
環境フィードバックを活用することで、LLMはロボット制御シナリオにおいてよりリッチな処理と計画を行うことができる内部モノローグを形成することができる。
論文 参考訳(メタデータ) (2022-07-12T15:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。