論文の概要: Steering Conversational Large Language Models for Long Emotional Support Conversations
- arxiv url: http://arxiv.org/abs/2402.10453v2
- Date: Sun, 15 Sep 2024 15:58:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 02:55:35.073234
- Title: Steering Conversational Large Language Models for Long Emotional Support Conversations
- Title(参考訳): 長期感情支援のためのステアリング対話型大言語モデル
- Authors: Navid Madani, Sougata Saha, Rohini Srihari,
- Abstract要約: 我々はLlama-2とLlama-3のモデルスイートのステアビリティに着目し、相互作用を通してこれらの戦略を維持する能力について検討する。
これを評価するために、注意マップを通して、モデルが引き起こした戦略への固執を定量化する戦略関連注意尺度(SRA)を導入する。
- 参考スコア(独自算出の注目度): 4.984018914962973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we address the challenge of enabling large language models (LLMs) to consistently adhere to emotional support strategies in extended conversations. We focus on the steerability of the Llama-2 and Llama-3 suite of models, examining their ability to maintain these strategies throughout interactions. To assess this, we introduce the Strategy Relevant Attention (SRA) metric, which quantifies the model's adherence to the prompted strategy through attention maps. To facilitate our study, we create a strategy-conditioned synthetic conversational dataset derived from the ESConv dataset. We also propose various baselines informed by our proposed SRA metric to address the challenge and propose a fine-tuned model that significantly enhances the steerability of the base model in following the strategy throughout the conversation. The code and data are publicly available on our GitHub.
- Abstract(参考訳): 本研究では,大規模言語モデル(LLM)が,会話の拡張における感情的支援戦略に一貫して従うことの難しさに対処する。
我々はLlama-2とLlama-3のモデルスイートのステアビリティに着目し、相互作用を通してこれらの戦略を維持する能力について検討する。
これを評価するために、注意マップを通して、モデルが引き起こした戦略への固執を定量化する戦略関連注意尺度(SRA)を導入する。
本研究では,ESConvデータセットから得られた戦略条件付き合成会話データセットを作成する。
また,この課題に対処するために,提案したSRA測定値から得られる様々なベースラインを提案し,対話を通して戦略に従うことにより,ベースモデルのステアビリティを大幅に向上させる微調整モデルを提案する。
コードとデータはGitHubで公開されています。
関連論文リスト
- LLM as a Mastermind: A Survey of Strategic Reasoning with Large Language Models [75.89014602596673]
戦略推論は、戦略を調整しながら、マルチエージェント設定における敵の行動を理解し、予測する必要がある。
大規模言語モデルを用いた戦略的推論に関連するスコープ,アプリケーション,方法論,評価指標について検討する。
戦略的推論を重要な認知能力として重要視し、将来の研究の方向性や潜在的な改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Towards Understanding Counseling Conversations: Domain Knowledge and
Large Language Models [22.588557390720236]
本稿では,カウンセリング会話をより良く表現するために,ドメイン知識と大規模言語モデル(LLM)の有効性を検討するための体系的なアプローチを提案する。
本稿では,トランスフォーマーモデルやGPTモデルのような最先端言語モデルは,会話結果の予測に失敗することを示す。
論文 参考訳(メタデータ) (2024-02-22T01:02:37Z) - Can Large Language Models be Good Emotional Supporter? Mitigating Preference Bias on Emotional Support Conversation [28.74445806009475]
この研究はESConv上での大規模言語モデル(LLM)の結果を分析した。
特定の戦略に対する高い嗜好を示すことは、効果的な感情的支援を妨げている。
その結果,(1) 特定の戦略に対する嗜好の低さは情緒的支援の進行を妨げること,(2) 外部援助は嗜好バイアスの軽減に役立つこと,(3) 既存のLCMだけでは感情的な支持者にはならないこと,などが強調された。
論文 参考訳(メタデータ) (2024-02-20T18:21:32Z) - Self-Explanation Prompting Improves Dialogue Understanding in Large
Language Models [52.24756457516834]
大規模言語モデル(LLM)の理解能力を高めるための新たな「自己説明(Self-Explanation)」を提案する。
このタスクに依存しないアプローチでは、タスク実行前の各対話発話を分析し、様々な対話中心のタスクのパフォーマンスを向上させる必要がある。
6つのベンチマークデータセットによる実験結果から,本手法は他のゼロショットプロンプトよりも一貫して優れており,数ショットプロンプトの有効性を超えていることが明らかとなった。
論文 参考訳(メタデータ) (2023-09-22T15:41:34Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - Prompting and Evaluating Large Language Models for Proactive Dialogues:
Clarification, Target-guided, and Non-collaboration [72.04629217161656]
本研究は, 明瞭化, 目標誘導, 非協調対話の3つの側面に焦点をあてる。
LLMの能動性を高めるために,プロアクティブ・チェーン・オブ・ソート・プロンプト方式を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:49:35Z) - PoKE: Prior Knowledge Enhanced Emotional Support Conversation with
Latent Variable [1.5787128553734504]
感情的なサポートは、対話システムにトレーニングされるべき重要なコミュニケーションスキルです。
既存の研究の多くは、現在の状況に応じて支援戦略を予測し、対応する感情的支援を提供する。
本稿では,潜在変数モデルであるPoKEを用いた事前知識向上型感情支援会話を提案する。
論文 参考訳(メタデータ) (2022-10-23T07:31:24Z) - Improving Multi-turn Emotional Support Dialogue Generation with
Lookahead Strategy Planning [81.79431311952656]
感情支援のための新しいシステムMultiESCを提案する。
戦略プランニングでは,特定の戦略を使用した後のユーザフィードバックを見積もるルックアヘッドを提案する。
ユーザ状態モデリングにおいて、MultiESCはユーザーの微妙な感情表現を捉え、感情の原因を理解することに重点を置いている。
論文 参考訳(メタデータ) (2022-10-09T12:23:47Z) - RESPER: Computationally Modelling Resisting Strategies in Persuasive
Conversations [0.7505101297221454]
説得的会話における抵抗戦略を識別するための一般化フレームワークを提案する。
実験では,非協調的目標指向会話におけるパワーロールの非対称性を明らかにする。
また,会話結果に対するさまざまな抵抗戦略の役割についても検討した。
論文 参考訳(メタデータ) (2021-01-26T03:44:17Z) - Dialogue-Based Relation Extraction [53.2896545819799]
本稿では,人間による対話型関係抽出(RE)データセットDialogREを提案する。
我々は,対話型タスクと従来のREタスクの類似点と相違点の分析に基づいて,提案課題において話者関連情報が重要な役割を担っていると論じる。
実験結果から,ベストパフォーマンスモデルにおける話者認識の拡張が,標準設定と会話評価設定の両方において向上することが示された。
論文 参考訳(メタデータ) (2020-04-17T03:51:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。