論文の概要: Affective Flow Language Model for Emotional Support Conversation
- arxiv url: http://arxiv.org/abs/2602.08826v1
- Date: Mon, 09 Feb 2026 15:58:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.342856
- Title: Affective Flow Language Model for Emotional Support Conversation
- Title(参考訳): 感情支援対話のための感情フロー言語モデル
- Authors: Chenghui Zou, Ning Wang, Tiesunlong Shen, Luwei Xiao, Chuan Ma, Xiangpeng Li, Rui Mao, Erik Cambria,
- Abstract要約: 本稿では感情支援会話(AFlow)のための感情フロー言語モデルを提案する。
AFlowは、マルチターン軌道に沿った継続的な情動フローをモデル化することで、対話プレフィックスのきめ細かい監督を導入するフレームワークである。
実験結果から, 多様な情緒的文脈において, 競争ベースラインよりも一貫した, 顕著な改善が見られた。
- 参考スコア(独自算出の注目度): 35.75344257149862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have been widely applied to emotional support conversation (ESC). However, complex multi-turn support remains challenging.This is because existing alignment schemes rely on sparse outcome-level signals, thus offering limited supervision for intermediate strategy decisions. To fill this gap, this paper proposes affective flow language model for emotional support conversation (AFlow), a framework that introduces fine-grained supervision on dialogue prefixes by modeling a continuous affective flow along multi-turn trajectories. AFlow can estimate intermediate utility over searched trajectories and learn preference-consistent strategy transitions. To improve strategy coherence and empathetic response quality, a subpath-level flow-balance objective is presented to propagate preference signals to intermediate states. Experiment results show consistent and significant improvements over competitive baselines in diverse emotional contexts. Remarkably, AFlow with a compact open-source backbone outperforms proprietary LMMs such as GPT-4o and Claude-3.5 on major ESC metrics. Our code is available at https://github.com/chzou25-lgtm/AffectiveFlow.
- Abstract(参考訳): 大言語モデル(LLM)は感情支援会話(ESC)に広く応用されている。
しかし, 複雑なマルチターン支援は依然として困難であり, 既存のアライメント方式は, 少ない結果レベルの信号に依存しているため, 中間戦略決定の監督が限られている。
このギャップを埋めるために,マルチターン軌道に沿った連続的な情動フローをモデル化し,対話の接頭辞をきめ細やかに監督するフレームワークである感情支援会話のための情動言語モデル(AFlow)を提案する。
AFlowは検索された軌道上で中間効用を推定し、優先一貫性のある戦略遷移を学習することができる。
戦略コヒーレンスと共感応答品質を改善するため、サブパスレベルのフローバランス目標を提示し、選好信号を中間状態に伝達する。
実験結果から, 多様な情緒的文脈において, 競争ベースラインよりも一貫した, 顕著な改善が見られた。
注目すべきは、コンパクトなオープンソースバックボーンを持つAFlowは、主要なESCメトリクスにおいて、GPT-4oやClaude-3.5のようなプロプライエタリなLMMよりも優れています。
私たちのコードはhttps://github.com/chzou25-lgtm/AffectiveFlowで利用可能です。
関連論文リスト
- Communication Enhances LLMs' Stability in Strategic Thinking [0.0]
安価でコストのかかるプレプレイメッセージが戦略的安定性に影響を及ぼすかどうかを評価する。
研究対象のモデル-コンテキストペアリングの大部分に対して,トラジェクティブノイズの連続的な低減を実証する。
コミュニケーションは有害な不安定性をもたらすことはめったにないが、いくつかの文脈固有の例外を文書化し、コミュニケーションが安定性を損なう限られた領域を特定する。
論文 参考訳(メタデータ) (2026-02-04T17:12:52Z) - Refer-Agent: A Collaborative Multi-Agent System with Reasoning and Reflection for Referring Video Object Segmentation [50.22481337087162]
Referring Video Object (RVOS) は、テキストクエリに基づくビデオ内のオブジェクトのセグメンテーションを目的としている。
Refer-Agent (Refer-Agent) は、共用多エージェントシステムである。
論文 参考訳(メタデータ) (2026-02-03T14:48:12Z) - SplineFlow: Flow Matching for Dynamical Systems with B-Spline Interpolants [14.711575625163045]
SplineFlow(スプラインフロー)は、B-スプラインを通して観測された条件付き経路を共同でモデル化する理論的基盤付きフローマッチングアルゴリズムである。
本研究では,B-スプライン基底の滑らかさと安定性をSplineFlowがいかに活用するかを示すとともに,マルチマージ要求を満たすことを保証する。
論文 参考訳(メタデータ) (2026-01-30T15:19:48Z) - Sample-Efficient Online Learning in LM Agents via Hindsight Trajectory Rewriting [92.57796055887995]
本稿では,言語モデルエージェントの強化学習から後視体験のリプレイに適応するプロンプトフレームワークECHOを紹介する。
ECHOは失敗した試みで達成できた代替目標のために最適化された軌道を生成する。
我々は、テキストベースのナビゲーションと計画ベンチマークであるXMiniGridのステートフルバージョンと、協調的な情報収集企業シミュレーションであるPeopleJoinQAについて、ECHOを評価した。
論文 参考訳(メタデータ) (2025-10-11T18:11:09Z) - Explaining multimodal LLMs via intra-modal token interactions [55.27436637894534]
MLLM(Multimodal Large Language Models)は、様々な視覚言語タスクにおいて顕著な成功を収めているが、その内部決定機構は十分に理解されていない。
モーダル内相互作用を利用した解釈可能性の向上を提案する。
論文 参考訳(メタデータ) (2025-09-26T14:39:13Z) - Plug-in Feedback Self-adaptive Attention in CLIP for Training-free Open-Vocabulary Segmentation [48.488114831677166]
CLIPは、強い視覚的テキストアライメントを示すが、ローカライゼーションが不十分なため、オープン語彙セグメンテーションに苦慮している。
本稿では,出力ベースのパッチレベルの対応を中間的注意に戻す,トレーニング不要でフィードバック駆動型の自己適応型フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-27T20:47:03Z) - MoL-RL: Distilling Multi-Step Environmental Feedback into LLMs for Feedback-Independent Reasoning [3.486190892832845]
MoL-RLは、多段階EF信号を大規模言語モデルに統合する新しい訓練パラダイムである。
我々は,MoL-RLがQwen3-8Bモデルを用いて最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2025-07-27T13:52:15Z) - CaLMFlow: Volterra Flow Matching using Causal Language Models [14.035963716966787]
CaLMFlowはVolterra積分方程式(VIE)としてフローマッチングをキャストするフレームワークである
本手法は,空間と時間にまたがるトークン化を実現し,これらの領域上でVIEを解く。
単一セル摂動応答予測を含む合成および実世界のデータに対するCaLMFlowの有効性を実証する。
論文 参考訳(メタデータ) (2024-10-03T05:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。