論文の概要: Think Before You Speak: Cultivating Communication Skills of Large
Language Models via Inner Monologue
- arxiv url: http://arxiv.org/abs/2311.07445v1
- Date: Mon, 13 Nov 2023 16:19:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 13:48:59.785214
- Title: Think Before You Speak: Cultivating Communication Skills of Large
Language Models via Inner Monologue
- Title(参考訳): 話す前に考える - 内部モノローグによる大規模言語モデルのコミュニケーションスキルの育成
- Authors: Junkai Zhou, Liang Pang, Huawei Shen, Xueqi Cheng
- Abstract要約: 大規模言語モデル(LLM)は、流動的で一貫性があり多様な応答を生成する。
LLMには重要な能力がない。
応答生成プロセスには,トピック移行,積極的に質問,概念指導,共感,頻繁な5つのコミュニケーションスキルを付加する。
完全なプロセスは、迅速なエンジニアリングとコンテキスト内学習によって達成される。
- 参考スコア(独自算出の注目度): 80.50660775996535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of large language models (LLMs) further improves the
capabilities of open-domain dialogue systems and can generate fluent, coherent,
and diverse responses. However, LLMs still lack an important ability:
communication skills, which makes them more like information seeking tools than
anthropomorphic chatbots. To make LLMs more anthropomorphic and proactive
during the conversation, we add five communication skills to the response
generation process: topic transition, proactively asking questions, concept
guidance, empathy, and summarising often. The addition of communication skills
increases the interest of users in the conversation and attracts them to chat
for longer. To enable LLMs better understand and use communication skills, we
design and add the inner monologue to LLMs. The complete process is achieved
through prompt engineering and in-context learning. To evaluate communication
skills, we construct a benchmark named Cskills for evaluating various
communication skills, which can also more comprehensively evaluate the dialogue
generation ability of the model. Experimental results show that the proposed
CSIM strategy improves the backbone models and outperforms the baselines in
both automatic and human evaluations.
- Abstract(参考訳): 大規模言語モデル(llms)の出現により、オープンドメイン対話システムの能力がさらに向上し、流動的でコヒーレントで多様な応答を生成することができる。
しかし、llmには依然として重要な能力が欠けている。コミュニケーションスキルは、擬人化チャットボットよりも情報検索ツールのようなものだ。
会話中にLLMをより人為的かつ積極的にするために、トピック遷移、積極的に質問する質問、概念指導、共感、しばしば要約という5つのコミュニケーションスキルを応答生成プロセスに追加する。
コミュニケーションスキルが加わったことで、会話におけるユーザの関心が高まり、より長くチャットに誘惑される。
LLMがコミュニケーションスキルをよりよく理解し、活用できるように、内部のモノローグをLLMに設計し、追加する。
完全なプロセスは、プロンプトエンジニアリングとインコンテキスト学習によって達成される。
コミュニケーションスキルを評価するために,様々なコミュニケーションスキルを評価するベンチマークCskillsを構築し,モデルの対話生成能力をより包括的に評価する。
実験の結果,提案手法はバックボーンモデルを改善し,自動評価と人間評価の両方においてベースラインを上回った。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Talk Less, Interact Better: Evaluating In-context Conversational Adaptation in Multimodal LLMs [14.997971970162743]
人間は、アドホックな慣習を適応し形成することによって、対話の進行に伴って、より効率的な言語を自然に利用する。
マルチモーダル・大規模言語モデル (MLLM) が通信効率を向上するかどうかについては未解明である。
本稿では,MLLMにおける文脈内行動としての会話適応を自動評価するフレームワークICCAを紹介する。
論文 参考訳(メタデータ) (2024-08-02T17:51:57Z) - Reasoning in Conversation: Solving Subjective Tasks through Dialogue
Simulation for Large Language Models [56.93074140619464]
本稿では,対話シミュレーションによる主観的課題の解決に焦点を当てたRiC(Reasoning in Conversation)を提案する。
RiCのモチベーションは、チェーン・オブ・ソート・スタイルの合理性を提供するのではなく、対話をシミュレートすることで有用な文脈情報をマイニングすることである。
GPT-4、ChatGPT、OpenChatなど、APIベースのLLMとオープンソースのLLMの両方を12のタスクで評価する。
論文 参考訳(メタデータ) (2024-02-27T05:37:10Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - BotChat: Evaluating LLMs' Capabilities of Having Multi-Turn Dialogues [72.65163468440434]
本報告では,人間型マルチターンチャットのための既存大規模言語モデルの予備的評価を行う。
そこで我々は,ChatSEEDに基づくマルチターン対話を発話によって生成する大規模言語モデル(LLM)を提案する。
GPT-4は優れた品質の人型多元対話を生成できるが、その性能は著しく上回っている。
論文 参考訳(メタデータ) (2023-10-20T16:53:51Z) - Tackling Vision Language Tasks Through Learning Inner Monologues [10.795616787372625]
本稿では,複雑な視覚言語問題を解くために,内部モノローグ多モード最適化(IMMO)を提案する。
IMMOは内的モノローグ過程をシミュレートする。
その結果、IMMOは推論能力と説明能力を高め、視覚モデルと言語モデルのより効果的な融合に寄与することが示唆された。
論文 参考訳(メタデータ) (2023-08-19T10:10:49Z) - Few-shot Language Coordination by Modeling Theory of Mind [95.54446989205117]
我々は、数ショット$textit language coordinate$のタスクについて研究する。
リードエージェントは、言語能力の異なるエージェントの$textitpopulation$と調整する必要があります。
これは、人間のコミュニケーションの重要な構成要素であるパートナーの信念をモデル化する能力を必要とする。
論文 参考訳(メタデータ) (2021-07-12T19:26:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。