論文の概要: Think Before You Speak: Cultivating Communication Skills of Large
Language Models via Inner Monologue
- arxiv url: http://arxiv.org/abs/2311.07445v1
- Date: Mon, 13 Nov 2023 16:19:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 13:48:59.785214
- Title: Think Before You Speak: Cultivating Communication Skills of Large
Language Models via Inner Monologue
- Title(参考訳): 話す前に考える - 内部モノローグによる大規模言語モデルのコミュニケーションスキルの育成
- Authors: Junkai Zhou, Liang Pang, Huawei Shen, Xueqi Cheng
- Abstract要約: 大規模言語モデル(LLM)は、流動的で一貫性があり多様な応答を生成する。
LLMには重要な能力がない。
応答生成プロセスには,トピック移行,積極的に質問,概念指導,共感,頻繁な5つのコミュニケーションスキルを付加する。
完全なプロセスは、迅速なエンジニアリングとコンテキスト内学習によって達成される。
- 参考スコア(独自算出の注目度): 80.50660775996535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of large language models (LLMs) further improves the
capabilities of open-domain dialogue systems and can generate fluent, coherent,
and diverse responses. However, LLMs still lack an important ability:
communication skills, which makes them more like information seeking tools than
anthropomorphic chatbots. To make LLMs more anthropomorphic and proactive
during the conversation, we add five communication skills to the response
generation process: topic transition, proactively asking questions, concept
guidance, empathy, and summarising often. The addition of communication skills
increases the interest of users in the conversation and attracts them to chat
for longer. To enable LLMs better understand and use communication skills, we
design and add the inner monologue to LLMs. The complete process is achieved
through prompt engineering and in-context learning. To evaluate communication
skills, we construct a benchmark named Cskills for evaluating various
communication skills, which can also more comprehensively evaluate the dialogue
generation ability of the model. Experimental results show that the proposed
CSIM strategy improves the backbone models and outperforms the baselines in
both automatic and human evaluations.
- Abstract(参考訳): 大規模言語モデル(llms)の出現により、オープンドメイン対話システムの能力がさらに向上し、流動的でコヒーレントで多様な応答を生成することができる。
しかし、llmには依然として重要な能力が欠けている。コミュニケーションスキルは、擬人化チャットボットよりも情報検索ツールのようなものだ。
会話中にLLMをより人為的かつ積極的にするために、トピック遷移、積極的に質問する質問、概念指導、共感、しばしば要約という5つのコミュニケーションスキルを応答生成プロセスに追加する。
コミュニケーションスキルが加わったことで、会話におけるユーザの関心が高まり、より長くチャットに誘惑される。
LLMがコミュニケーションスキルをよりよく理解し、活用できるように、内部のモノローグをLLMに設計し、追加する。
完全なプロセスは、プロンプトエンジニアリングとインコンテキスト学習によって達成される。
コミュニケーションスキルを評価するために,様々なコミュニケーションスキルを評価するベンチマークCskillsを構築し,モデルの対話生成能力をより包括的に評価する。
実験の結果,提案手法はバックボーンモデルを改善し,自動評価と人間評価の両方においてベースラインを上回った。
関連論文リスト
- Reasoning in Conversation: Solving Subjective Tasks through Dialogue
Simulation for Large Language Models [56.93074140619464]
本稿では,対話シミュレーションによる主観的課題の解決に焦点を当てたRiC(Reasoning in Conversation)を提案する。
RiCのモチベーションは、チェーン・オブ・ソート・スタイルの合理性を提供するのではなく、対話をシミュレートすることで有用な文脈情報をマイニングすることである。
GPT-4、ChatGPT、OpenChatなど、APIベースのLLMとオープンソースのLLMの両方を12のタスクで評価する。
論文 参考訳(メタデータ) (2024-02-27T05:37:10Z) - Towards Understanding Counseling Conversations: Domain Knowledge and
Large Language Models [22.588557390720236]
本稿では,カウンセリング会話をより良く表現するために,ドメイン知識と大規模言語モデル(LLM)の有効性を検討するための体系的なアプローチを提案する。
本稿では,トランスフォーマーモデルやGPTモデルのような最先端言語モデルは,会話結果の予測に失敗することを示す。
論文 参考訳(メタデータ) (2024-02-22T01:02:37Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - Zero-Shot Goal-Directed Dialogue via RL on Imagined Conversations [70.7884839812069]
大規模言語モデル(LLM)は、多くの自然言語タスクに対する強力で一般的な解決策として登場した。
しかしながら、言語生成の最も重要なアプリケーションの多くは対話的であり、エージェントは望ましい結果に達するために相手と話し合わなければならない。
本研究では,そのような目標指向対話に対して,RLでLLMを適応させる新しい手法について検討する。
論文 参考訳(メタデータ) (2023-11-09T18:45:16Z) - DialogBench: Evaluating LLMs as Human-like Dialogue Systems [22.534371668254327]
大規模言語モデル(LLM)は、新しい対話機能において画期的なブレークスルーを達成した。
対話システムの目標は、ユーザーとの長期的なつながりを確立するのに十分な人間のようなものである。
現在12ドルの対話タスクを含む対話評価ベンチマークであるDialogBenchを提案する。
論文 参考訳(メタデータ) (2023-11-03T02:59:56Z) - BotChat: Evaluating LLMs' Capabilities of Having Multi-Turn Dialogues [72.65163468440434]
本報告では,人間型マルチターンチャットのための既存大規模言語モデルの予備的評価を行う。
そこで我々は,ChatSEEDに基づくマルチターン対話を発話によって生成する大規模言語モデル(LLM)を提案する。
GPT-4は優れた品質の人型多元対話を生成できるが、その性能は著しく上回っている。
論文 参考訳(メタデータ) (2023-10-20T16:53:51Z) - Few-shot Language Coordination by Modeling Theory of Mind [95.54446989205117]
我々は、数ショット$textit language coordinate$のタスクについて研究する。
リードエージェントは、言語能力の異なるエージェントの$textitpopulation$と調整する必要があります。
これは、人間のコミュニケーションの重要な構成要素であるパートナーの信念をモデル化する能力を必要とする。
論文 参考訳(メタデータ) (2021-07-12T19:26:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。