論文の概要: Think Before You Speak: Cultivating Communication Skills of Large Language Models via Inner Monologue
- arxiv url: http://arxiv.org/abs/2311.07445v2
- Date: Fri, 15 Mar 2024 08:30:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 23:22:19.356724
- Title: Think Before You Speak: Cultivating Communication Skills of Large Language Models via Inner Monologue
- Title(参考訳): 内的モノローグによる大規模言語モデルのコミュニケーションスキルの育成
- Authors: Junkai Zhou, Liang Pang, Huawei Shen, Xueqi Cheng,
- Abstract要約: 大規模言語モデル(LLM)は、流動的で一貫性があり多様な応答を生成する。
しかし、それらは重要な能力、コミュニケーションスキルを欠いている。
本稿は,内的モノローグによるLLMのコミュニケーション能力向上を目的としている。
実験の結果,提案したCSIM戦略はバックボーンモデルを改善し,ベースラインよりも優れていた。
- 参考スコア(独自算出の注目度): 73.69510478736483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of large language models (LLMs) further improves the capabilities of open-domain dialogue systems and can generate fluent, coherent, and diverse responses. However, LLMs still lack a crucial ability: communication skills. This limitation renders them more like information seeking tools rather than anthropomorphic chatbots. Communication skills, such as topic transition, proactively asking questions, concept guidance, empathy, and summarising often should be taken into consideration, to make LLMs more anthropomorphic and proactive during the conversation, thereby increasing the interest of users and attracting them to chat for longer. However, enabling these communication skills in black-box LLMs remains a key challenge because they do not have the same utterance formation mode as real people: think before speaking. Inspired by linguistics and cognitive science, we empower LLMs with communication skills through inner monologues. To evaluate various communication skills, we construct a benchmark named Cskills, which can also more comprehensively evaluate the dialogue generation ability of the model. Experimental results show that the proposed CSIM strategy improves the backbone models and outperforms the baselines.
- Abstract(参考訳): 大規模言語モデル(LLM)の出現により、オープンドメイン対話システムの能力はさらに向上し、流動的で一貫性があり多様な応答を生成することができる。
しかし、LLMには重要な能力がない。
この制限は、人為的なチャットボットというよりも、情報検索ツールのようなものだ。
トピック移行、積極的に質問する質問、概念指導、共感、要約といったコミュニケーションスキルは、会話中にLLMをより人為的かつ積極的にし、ユーザの興味を増し、より長くチャットに惹きつけるために考慮すべきである。
しかしながら、これらのコミュニケーションスキルをブラックボックスのLLMで実現することは、実際の人と同じ発話形成モードを持っていないため、重要な課題である。
言語学と認知科学にインスパイアされた私たちは、内部のモノローグを通してコミュニケーションスキルを持つLLMに力を与えます。
様々なコミュニケーションスキルを評価するために,Cskillsというベンチマークを構築し,モデルの対話生成能力をより包括的に評価する。
実験の結果,提案したCSIM戦略はバックボーンモデルを改善し,ベースラインよりも優れていた。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Talk Less, Interact Better: Evaluating In-context Conversational Adaptation in Multimodal LLMs [14.997971970162743]
人間は、アドホックな慣習を適応し形成することによって、対話の進行に伴って、より効率的な言語を自然に利用する。
マルチモーダル・大規模言語モデル (MLLM) が通信効率を向上するかどうかについては未解明である。
本稿では,MLLMにおける文脈内行動としての会話適応を自動評価するフレームワークICCAを紹介する。
論文 参考訳(メタデータ) (2024-08-02T17:51:57Z) - Reasoning in Conversation: Solving Subjective Tasks through Dialogue
Simulation for Large Language Models [56.93074140619464]
本稿では,対話シミュレーションによる主観的課題の解決に焦点を当てたRiC(Reasoning in Conversation)を提案する。
RiCのモチベーションは、チェーン・オブ・ソート・スタイルの合理性を提供するのではなく、対話をシミュレートすることで有用な文脈情報をマイニングすることである。
GPT-4、ChatGPT、OpenChatなど、APIベースのLLMとオープンソースのLLMの両方を12のタスクで評価する。
論文 参考訳(メタデータ) (2024-02-27T05:37:10Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - BotChat: Evaluating LLMs' Capabilities of Having Multi-Turn Dialogues [72.65163468440434]
本報告では,人間型マルチターンチャットのための既存大規模言語モデルの予備的評価を行う。
そこで我々は,ChatSEEDに基づくマルチターン対話を発話によって生成する大規模言語モデル(LLM)を提案する。
GPT-4は優れた品質の人型多元対話を生成できるが、その性能は著しく上回っている。
論文 参考訳(メタデータ) (2023-10-20T16:53:51Z) - Tackling Vision Language Tasks Through Learning Inner Monologues [10.795616787372625]
本稿では,複雑な視覚言語問題を解くために,内部モノローグ多モード最適化(IMMO)を提案する。
IMMOは内的モノローグ過程をシミュレートする。
その結果、IMMOは推論能力と説明能力を高め、視覚モデルと言語モデルのより効果的な融合に寄与することが示唆された。
論文 参考訳(メタデータ) (2023-08-19T10:10:49Z) - Few-shot Language Coordination by Modeling Theory of Mind [95.54446989205117]
我々は、数ショット$textit language coordinate$のタスクについて研究する。
リードエージェントは、言語能力の異なるエージェントの$textitpopulation$と調整する必要があります。
これは、人間のコミュニケーションの重要な構成要素であるパートナーの信念をモデル化する能力を必要とする。
論文 参考訳(メタデータ) (2021-07-12T19:26:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。