論文の概要: Steering Conversational Large Language Models for Long Emotional Support
Conversations
- arxiv url: http://arxiv.org/abs/2402.10453v1
- Date: Fri, 16 Feb 2024 05:03:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 17:31:29.289517
- Title: Steering Conversational Large Language Models for Long Emotional Support
Conversations
- Title(参考訳): 長期感情支援のためのステアリング対話型大言語モデル
- Authors: Navid Madani, Sougata Saha, Rohini Srihari
- Abstract要約: 本稿では,大規模言語モデル(LLM)の有効性を評価するためのモデル非依存尺度であるStrategy-Relevant Attention Metricsを紹介する。
以上の結果から,SRAインフォームド・プロンプトの応用が戦略的定着の促進につながることが明らかとなった。
- 参考スコア(独自算出の注目度): 5.601537787608725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we address the challenge of consistently following emotional
support strategies in long conversations by large language models (LLMs). We
introduce the Strategy-Relevant Attention (SRA) metric, a model-agnostic
measure designed to evaluate the effectiveness of LLMs in adhering to strategic
prompts in emotional support contexts. By analyzing conversations within the
Emotional Support Conversations dataset (ESConv) using LLaMA models, we
demonstrate that SRA is significantly correlated with a model's ability to
sustain the outlined strategy throughout the interactions. Our findings reveal
that the application of SRA-informed prompts leads to enhanced strategic
adherence, resulting in conversations that more reliably exhibit the desired
emotional support strategies over longer conversations. Furthermore, we
contribute a comprehensive, multi-branch synthetic conversation dataset for
ESConv, featuring a variety of strategy continuations informed by our optimized
prompting method. The code and data are publicly available on our Github.
- Abstract(参考訳): 本研究では,大規模言語モデル(llm)による長文会話における感情支援戦略に一貫して従う課題について述べる。
情緒的サポートの文脈における戦略的プロンプトに固執する上でのLCMの有効性を評価するためのモデル非依存尺度である戦略関連注意尺度(SRA)を導入する。
LLaMAモデルを用いて感情支援会話データセット(ESConv)内の会話を解析することにより、SRAは相互作用全体を通して概略された戦略を維持するモデルの能力と著しく相関していることを示す。
以上の結果から,sraインフォームプロンプトの適用は,より戦略的に固執し,より長い会話よりも望ましい情緒的支援戦略をより確実に示す会話へと繋がることが明らかとなった。
さらに,我々はESConvのための包括的,多分岐合成会話データセットをコントリビュートし,最適化されたプロンプト方式により様々な戦略継続を特徴とする。
コードとデータはGithubで公開されています。
関連論文リスト
- Evaluating Very Long-Term Conversational Memory of LLM Agents [95.84027826745609]
我々は,高品質で長期的な対話を生成するための,マシン・ヒューマン・パイプラインを導入する。
我々は、各エージェントに画像の共有と反応の能力を持たせる。
生成した会話は、長距離一貫性のために人間のアノテーションによって検証され、編集される。
論文 参考訳(メタデータ) (2024-02-27T18:42:31Z) - Towards Understanding Counseling Conversations: Domain Knowledge and
Large Language Models [22.588557390720236]
本稿では,カウンセリング会話をより良く表現するために,ドメイン知識と大規模言語モデル(LLM)の有効性を検討するための体系的なアプローチを提案する。
本稿では,トランスフォーマーモデルやGPTモデルのような最先端言語モデルは,会話結果の予測に失敗することを示す。
論文 参考訳(メタデータ) (2024-02-22T01:02:37Z) - Can Large Language Models be Good Emotional Supporter? Mitigating
Preference Bias on Emotional Support Conversation [29.98248779453701]
この研究はESConv上での大規模言語モデル(LLM)の結果を分析した。
特定の戦略に対する高い嗜好を示すことは、効果的な感情的支援を妨げている。
その結果,(1) 特定の戦略に対する嗜好の低さは情緒的支援の進行を妨げること,(2) 外部援助は嗜好バイアスの軽減に役立つこと,(3) LLMだけでは感情的な支持者にはならないことが強調された。
論文 参考訳(メタデータ) (2024-02-20T18:21:32Z) - Self-Explanation Prompting Improves Dialogue Understanding in Large
Language Models [52.24756457516834]
大規模言語モデル(LLM)の理解能力を高めるための新たな「自己説明(Self-Explanation)」を提案する。
このタスクに依存しないアプローチでは、タスク実行前の各対話発話を分析し、様々な対話中心のタスクのパフォーマンスを向上させる必要がある。
6つのベンチマークデータセットによる実験結果から,本手法は他のゼロショットプロンプトよりも一貫して優れており,数ショットプロンプトの有効性を超えていることが明らかとなった。
論文 参考訳(メタデータ) (2023-09-22T15:41:34Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - Prompting and Evaluating Large Language Models for Proactive Dialogues:
Clarification, Target-guided, and Non-collaboration [72.04629217161656]
本研究は, 明瞭化, 目標誘導, 非協調対話の3つの側面に焦点をあてる。
LLMの能動性を高めるために,プロアクティブ・チェーン・オブ・ソート・プロンプト方式を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:49:35Z) - PoKE: Prior Knowledge Enhanced Emotional Support Conversation with
Latent Variable [1.5787128553734504]
感情的なサポートは、対話システムにトレーニングされるべき重要なコミュニケーションスキルです。
既存の研究の多くは、現在の状況に応じて支援戦略を予測し、対応する感情的支援を提供する。
本稿では,潜在変数モデルであるPoKEを用いた事前知識向上型感情支援会話を提案する。
論文 参考訳(メタデータ) (2022-10-23T07:31:24Z) - Improving Multi-turn Emotional Support Dialogue Generation with
Lookahead Strategy Planning [81.79431311952656]
感情支援のための新しいシステムMultiESCを提案する。
戦略プランニングでは,特定の戦略を使用した後のユーザフィードバックを見積もるルックアヘッドを提案する。
ユーザ状態モデリングにおいて、MultiESCはユーザーの微妙な感情表現を捉え、感情の原因を理解することに重点を置いている。
論文 参考訳(メタデータ) (2022-10-09T12:23:47Z) - RESPER: Computationally Modelling Resisting Strategies in Persuasive
Conversations [0.7505101297221454]
説得的会話における抵抗戦略を識別するための一般化フレームワークを提案する。
実験では,非協調的目標指向会話におけるパワーロールの非対称性を明らかにする。
また,会話結果に対するさまざまな抵抗戦略の役割についても検討した。
論文 参考訳(メタデータ) (2021-01-26T03:44:17Z) - Dialogue-Based Relation Extraction [53.2896545819799]
本稿では,人間による対話型関係抽出(RE)データセットDialogREを提案する。
我々は,対話型タスクと従来のREタスクの類似点と相違点の分析に基づいて,提案課題において話者関連情報が重要な役割を担っていると論じる。
実験結果から,ベストパフォーマンスモデルにおける話者認識の拡張が,標準設定と会話評価設定の両方において向上することが示された。
論文 参考訳(メタデータ) (2020-04-17T03:51:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。