論文の概要: Steering Conversational Large Language Models for Long Emotional Support
Conversations
- arxiv url: http://arxiv.org/abs/2402.10453v1
- Date: Fri, 16 Feb 2024 05:03:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 17:31:29.289517
- Title: Steering Conversational Large Language Models for Long Emotional Support
Conversations
- Title(参考訳): 長期感情支援のためのステアリング対話型大言語モデル
- Authors: Navid Madani, Sougata Saha, Rohini Srihari
- Abstract要約: 本稿では,大規模言語モデル(LLM)の有効性を評価するためのモデル非依存尺度であるStrategy-Relevant Attention Metricsを紹介する。
以上の結果から,SRAインフォームド・プロンプトの応用が戦略的定着の促進につながることが明らかとなった。
- 参考スコア(独自算出の注目度): 5.601537787608725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we address the challenge of consistently following emotional
support strategies in long conversations by large language models (LLMs). We
introduce the Strategy-Relevant Attention (SRA) metric, a model-agnostic
measure designed to evaluate the effectiveness of LLMs in adhering to strategic
prompts in emotional support contexts. By analyzing conversations within the
Emotional Support Conversations dataset (ESConv) using LLaMA models, we
demonstrate that SRA is significantly correlated with a model's ability to
sustain the outlined strategy throughout the interactions. Our findings reveal
that the application of SRA-informed prompts leads to enhanced strategic
adherence, resulting in conversations that more reliably exhibit the desired
emotional support strategies over longer conversations. Furthermore, we
contribute a comprehensive, multi-branch synthetic conversation dataset for
ESConv, featuring a variety of strategy continuations informed by our optimized
prompting method. The code and data are publicly available on our Github.
- Abstract(参考訳): 本研究では,大規模言語モデル(llm)による長文会話における感情支援戦略に一貫して従う課題について述べる。
情緒的サポートの文脈における戦略的プロンプトに固執する上でのLCMの有効性を評価するためのモデル非依存尺度である戦略関連注意尺度(SRA)を導入する。
LLaMAモデルを用いて感情支援会話データセット(ESConv)内の会話を解析することにより、SRAは相互作用全体を通して概略された戦略を維持するモデルの能力と著しく相関していることを示す。
以上の結果から,sraインフォームプロンプトの適用は,より戦略的に固執し,より長い会話よりも望ましい情緒的支援戦略をより確実に示す会話へと繋がることが明らかとなった。
さらに,我々はESConvのための包括的,多分岐合成会話データセットをコントリビュートし,最適化されたプロンプト方式により様々な戦略継続を特徴とする。
コードとデータはGithubで公開されています。
関連論文リスト
- Seeing Eye to AI: Human Alignment via Gaze-Based Response Rewards for Large Language Models [46.09562860220433]
暗黙のフィードバック(特に眼球追跡(ET)データ)をReward Model(RM)に統合する新しいフレームワークであるGazeRewardを紹介します。
提案手法は、確立された人間の嗜好データセット上でのRMの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-10-02T13:24:56Z) - Automated Speaking Assessment of Conversation Tests with Novel Graph-based Modeling on Spoken Response Coherence [11.217656140423207]
ASACは、1つ以上の候補者と対話する環境でL2話者の全体的な発話能力を評価することを目的としている。
本稿では,広い応答間相互作用とニュアンス付き意味情報の両方を適切に組み込んだ階層グラフモデルを提案する。
NICT-JLEベンチマークデータセットの大規模な実験結果から,提案手法が予測精度を大幅に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2024-09-11T07:24:07Z) - Towards a Unified View of Preference Learning for Large Language Models: A Survey [88.66719962576005]
大きな言語モデル(LLM)は、非常に強力な能力を示す。
成功するための重要な要因の1つは、LLMの出力を人間の好みに合わせることである。
選好学習のすべての戦略を、モデル、データ、フィードバック、アルゴリズムの4つの構成要素に分解する。
論文 参考訳(メタデータ) (2024-09-04T15:11:55Z) - LLM as a Mastermind: A Survey of Strategic Reasoning with Large Language Models [75.89014602596673]
戦略推論は、戦略を調整しながら、マルチエージェント設定における敵の行動を理解し、予測する必要がある。
大規模言語モデルを用いた戦略的推論に関連するスコープ,アプリケーション,方法論,評価指標について検討する。
戦略的推論を重要な認知能力として重要視し、将来の研究の方向性や潜在的な改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - InstructERC: Reforming Emotion Recognition in Conversation with Multi-task Retrieval-Augmented Large Language Models [9.611864685207056]
本稿では,識別的枠組みから大規模言語モデル(LLM)に基づく生成的枠組みへ,感情認識タスクを再構築するための新しいアプローチであるインストラクタCを提案する。
InstructERCは、3つの重要な貢献をしている:(1)モデルがマルチグラニュラリティ対話監視情報を明示的に統合するのに役立つ単純で効果的なテンプレートモジュール、(2)話者識別と感情予測タスクという2つの追加の感情アライメントタスクを導入し、会話における対話の役割の関係と将来の感情傾向を暗黙的にモデル化する。
論文 参考訳(メタデータ) (2023-09-21T09:22:07Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - Leveraging Few-Shot Data Augmentation and Waterfall Prompting for
Response Generation [0.0]
本稿では,主観的知識を用いたタスク指向対話型モデリングのアプローチについて論じる。
提案手法は, 提案データセットに存在する応答長, 感情, 対話行動などの重要な要因を評価するデータ分析によって構成された。
DSTC11では,(1)タスク固有モデル探索,(2)最も頻繁な質問を全ての応答に取り入れること,(3)GPT-3とChatGPTの組み合わせによるウォーターフォール促進手法を提案する。
論文 参考訳(メタデータ) (2023-08-02T11:04:27Z) - RESPER: Computationally Modelling Resisting Strategies in Persuasive
Conversations [0.7505101297221454]
説得的会話における抵抗戦略を識別するための一般化フレームワークを提案する。
実験では,非協調的目標指向会話におけるパワーロールの非対称性を明らかにする。
また,会話結果に対するさまざまな抵抗戦略の役割についても検討した。
論文 参考訳(メタデータ) (2021-01-26T03:44:17Z) - Dialogue Response Selection with Hierarchical Curriculum Learning [52.3318584971562]
対話応答選択のためのマッチングモデルの学習について検討する。
近年,ランダムなネガティブは信頼度の高いモデルを学習するには自明すぎることが判明し,階層的なカリキュラム学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-29T14:06:41Z) - Enhancing Dialogue Generation via Multi-Level Contrastive Learning [57.005432249952406]
質問に対する応答のきめ細かい品質をモデル化するマルチレベルコントラスト学習パラダイムを提案する。
Rank-aware (RC) ネットワークはマルチレベルコントラスト最適化の目的を構築するために設計されている。
本研究では,知識推論(KI)コンポーネントを構築し,学習中の参照からキーワードの知識を抽出し,そのような情報を活用して情報的単語の生成を促す。
論文 参考訳(メタデータ) (2020-09-19T02:41:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。