論文の概要: Steering Conversational Large Language Models for Long Emotional Support Conversations
- arxiv url: http://arxiv.org/abs/2402.10453v2
- Date: Sun, 15 Sep 2024 15:58:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 02:55:35.073234
- Title: Steering Conversational Large Language Models for Long Emotional Support Conversations
- Title(参考訳): 長期感情支援のためのステアリング対話型大言語モデル
- Authors: Navid Madani, Sougata Saha, Rohini Srihari,
- Abstract要約: 我々はLlama-2とLlama-3のモデルスイートのステアビリティに着目し、相互作用を通してこれらの戦略を維持する能力について検討する。
これを評価するために、注意マップを通して、モデルが引き起こした戦略への固執を定量化する戦略関連注意尺度(SRA)を導入する。
- 参考スコア(独自算出の注目度): 4.984018914962973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we address the challenge of enabling large language models (LLMs) to consistently adhere to emotional support strategies in extended conversations. We focus on the steerability of the Llama-2 and Llama-3 suite of models, examining their ability to maintain these strategies throughout interactions. To assess this, we introduce the Strategy Relevant Attention (SRA) metric, which quantifies the model's adherence to the prompted strategy through attention maps. To facilitate our study, we create a strategy-conditioned synthetic conversational dataset derived from the ESConv dataset. We also propose various baselines informed by our proposed SRA metric to address the challenge and propose a fine-tuned model that significantly enhances the steerability of the base model in following the strategy throughout the conversation. The code and data are publicly available on our GitHub.
- Abstract(参考訳): 本研究では,大規模言語モデル(LLM)が,会話の拡張における感情的支援戦略に一貫して従うことの難しさに対処する。
我々はLlama-2とLlama-3のモデルスイートのステアビリティに着目し、相互作用を通してこれらの戦略を維持する能力について検討する。
これを評価するために、注意マップを通して、モデルが引き起こした戦略への固執を定量化する戦略関連注意尺度(SRA)を導入する。
本研究では,ESConvデータセットから得られた戦略条件付き合成会話データセットを作成する。
また,この課題に対処するために,提案したSRA測定値から得られる様々なベースラインを提案し,対話を通して戦略に従うことにより,ベースモデルのステアビリティを大幅に向上させる微調整モデルを提案する。
コードとデータはGitHubで公開されています。
関連論文リスト
- Seeing Eye to AI: Human Alignment via Gaze-Based Response Rewards for Large Language Models [46.09562860220433]
暗黙のフィードバック(特に眼球追跡(ET)データ)をReward Model(RM)に統合する新しいフレームワークであるGazeRewardを紹介します。
提案手法は、確立された人間の嗜好データセット上でのRMの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-10-02T13:24:56Z) - Automated Speaking Assessment of Conversation Tests with Novel Graph-based Modeling on Spoken Response Coherence [11.217656140423207]
ASACは、1つ以上の候補者と対話する環境でL2話者の全体的な発話能力を評価することを目的としている。
本稿では,広い応答間相互作用とニュアンス付き意味情報の両方を適切に組み込んだ階層グラフモデルを提案する。
NICT-JLEベンチマークデータセットの大規模な実験結果から,提案手法が予測精度を大幅に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2024-09-11T07:24:07Z) - Towards a Unified View of Preference Learning for Large Language Models: A Survey [88.66719962576005]
大きな言語モデル(LLM)は、非常に強力な能力を示す。
成功するための重要な要因の1つは、LLMの出力を人間の好みに合わせることである。
選好学習のすべての戦略を、モデル、データ、フィードバック、アルゴリズムの4つの構成要素に分解する。
論文 参考訳(メタデータ) (2024-09-04T15:11:55Z) - LLM as a Mastermind: A Survey of Strategic Reasoning with Large Language Models [75.89014602596673]
戦略推論は、戦略を調整しながら、マルチエージェント設定における敵の行動を理解し、予測する必要がある。
大規模言語モデルを用いた戦略的推論に関連するスコープ,アプリケーション,方法論,評価指標について検討する。
戦略的推論を重要な認知能力として重要視し、将来の研究の方向性や潜在的な改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - InstructERC: Reforming Emotion Recognition in Conversation with Multi-task Retrieval-Augmented Large Language Models [9.611864685207056]
本稿では,識別的枠組みから大規模言語モデル(LLM)に基づく生成的枠組みへ,感情認識タスクを再構築するための新しいアプローチであるインストラクタCを提案する。
InstructERCは、3つの重要な貢献をしている:(1)モデルがマルチグラニュラリティ対話監視情報を明示的に統合するのに役立つ単純で効果的なテンプレートモジュール、(2)話者識別と感情予測タスクという2つの追加の感情アライメントタスクを導入し、会話における対話の役割の関係と将来の感情傾向を暗黙的にモデル化する。
論文 参考訳(メタデータ) (2023-09-21T09:22:07Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - Leveraging Few-Shot Data Augmentation and Waterfall Prompting for
Response Generation [0.0]
本稿では,主観的知識を用いたタスク指向対話型モデリングのアプローチについて論じる。
提案手法は, 提案データセットに存在する応答長, 感情, 対話行動などの重要な要因を評価するデータ分析によって構成された。
DSTC11では,(1)タスク固有モデル探索,(2)最も頻繁な質問を全ての応答に取り入れること,(3)GPT-3とChatGPTの組み合わせによるウォーターフォール促進手法を提案する。
論文 参考訳(メタデータ) (2023-08-02T11:04:27Z) - RESPER: Computationally Modelling Resisting Strategies in Persuasive
Conversations [0.7505101297221454]
説得的会話における抵抗戦略を識別するための一般化フレームワークを提案する。
実験では,非協調的目標指向会話におけるパワーロールの非対称性を明らかにする。
また,会話結果に対するさまざまな抵抗戦略の役割についても検討した。
論文 参考訳(メタデータ) (2021-01-26T03:44:17Z) - Dialogue Response Selection with Hierarchical Curriculum Learning [52.3318584971562]
対話応答選択のためのマッチングモデルの学習について検討する。
近年,ランダムなネガティブは信頼度の高いモデルを学習するには自明すぎることが判明し,階層的なカリキュラム学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-29T14:06:41Z) - Enhancing Dialogue Generation via Multi-Level Contrastive Learning [57.005432249952406]
質問に対する応答のきめ細かい品質をモデル化するマルチレベルコントラスト学習パラダイムを提案する。
Rank-aware (RC) ネットワークはマルチレベルコントラスト最適化の目的を構築するために設計されている。
本研究では,知識推論(KI)コンポーネントを構築し,学習中の参照からキーワードの知識を抽出し,そのような情報を活用して情報的単語の生成を促す。
論文 参考訳(メタデータ) (2020-09-19T02:41:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。