論文の概要: CALM-IT: Generating Realistic Long-Form Motivational Interviewing Dialogues with Dual-Actor Conversational Dynamics Tracking
- arxiv url: http://arxiv.org/abs/2601.10085v1
- Date: Thu, 15 Jan 2026 05:21:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.000691
- Title: CALM-IT: Generating Realistic Long-Form Motivational Interviewing Dialogues with Dual-Actor Conversational Dynamics Tracking
- Title(参考訳): CALM-IT:Dual-Aversational Dynamics Trackingを用いたリアルタイム長文モーティベーション・インタビュー対話の生成
- Authors: Viet Cuong Nguyen, Nhi Yen Nguyen, Kristin A. Candan, Mary Conlon, Vanessa Rumie, Kristen Risola, Srijan Kumar, Munmun De Choudhury,
- Abstract要約: 本稿では,長期的モチベーション・インタビュー(MI)対話の生成と評価を行うフレームワークであるCALM-ITを紹介する。
CALM-ITは、セラピストとクライアントの相互作用を双方向の状態空間プロセスとして表現し、双方のエージェントが推論されたアライメント、精神状態、短期的な目標を継続的に更新する。
全体として、CALM-ITは、高品質な長文合成会話を生成するのに不可欠である会話状態の進化をモデル化する証拠を提供する。
- 参考スコア(独自算出の注目度): 19.208271066662856
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Models (LLMs) are increasingly used in mental health-related settings, yet they struggle to sustain realistic, goal-directed dialogue over extended interactions. While LLMs generate fluent responses, they optimize locally for the next turn rather than maintaining a coherent model of therapeutic progress, leading to brittleness and long-horizon drift. We introduce CALM-IT, a framework for generating and evaluating long-form Motivational Interviewing (MI) dialogues that explicitly models dual-actor conversational dynamics. CALM-IT represents therapist-client interaction as a bidirectional state-space process, in which both agents continuously update inferred alignment, mental states, and short-term goals to guide strategy selection and utterance generation. Across large-scale evaluations, CALM-IT consistently outperforms strong baselines in Effectiveness and Goal Alignment and remains substantially more stable as conversation length increases. Although CALM-IT initiates fewer therapist redirections, it achieves the highest client acceptance rate (64.3%), indicating more precise and therapeutically aligned intervention timing. Overall, CALM-IT provides evidence for modeling evolving conversational state being essential for generating high-quality long-form synthetic conversations.
- Abstract(参考訳): 大規模言語モデル(LLM)は、メンタルヘルスに関する設定でますます使われるようになっているが、対話を拡張して現実的でゴール指向の対話を維持するのに苦労している。
LLMは流動的な応答を生成するが、治療進行のコヒーレントなモデルを維持するのではなく、局所的に次のターンに最適化する。
本稿では,2次元対話力学を明示的にモデル化した長文モチベーション・インタビュー(MI)対話の生成と評価を行うフレームワークであるCALM-ITを紹介する。
CALM-ITは、セラピストとクライアントの相互作用を双方向の状態空間プロセスとして表現し、双方のエージェントが推論されたアライメント、精神状態、短期目標を継続的に更新し、戦略選択と発話生成を導く。
大規模評価では、CALM-ITは効率性やゴールアライメントの強いベースラインを一貫して上回り、会話の長さが増加するにつれて、かなり安定している。
CALM-ITはセラピストのリダイレクトを減少させるが、最も高いクライアント受け入れ率(64.3%)を達成し、より正確で治療的に整合した介入タイミングを示す。
全体として、CALM-ITは、高品質な長文合成会話を生成するのに不可欠である会話状態の進化をモデル化する証拠を提供する。
関連論文リスト
- Time-To-Inconsistency: A Survival Analysis of Large Language Model Robustness to Adversarial Attacks [8.86745721473138]
対話型AIの強靭性に関する総合的サバイバル分析を行い,9つの最先端LCMの会話を36,951回解析した。
突発的,即発的(prompt-to-prompt)なセマンティックドリフトは破滅的であり,会話障害の危険性を劇的に高める。
相互作用を持つAFTモデルは優れた性能を示し、優れた識別と例外的な校正を実現している。
論文 参考訳(メタデータ) (2025-10-03T04:26:10Z) - Chronological Thinking in Full-Duplex Spoken Dialogue Language Models [66.84843878538207]
時系列思考は、完全なSDLMの応答品質を改善することを目的としている。
追加のレイテンシがない: ユーザが話すのをやめると、エージェントは考えるのをやめ、それ以上の遅延なしに話し始める。
結果: 客観的指標と人的評価の両面から, 時系列思考の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2025-10-02T10:28:11Z) - Reframe Your Life Story: Interactive Narrative Therapist and Innovative Moment Assessment with Large Language Models [72.36715571932696]
物語療法は、個人が問題のある人生の物語を代替品の力に変えるのに役立つ。
現在のアプローチでは、特殊精神療法ではリアリズムが欠如しており、時間とともに治療の進行を捉えることができない。
Int(Interactive Narrative Therapist)は、治療段階を計画し、反射レベルを誘導し、文脈的に適切な専門家のような反応を生成することによって、専門家の物語セラピストをシミュレートする。
論文 参考訳(メタデータ) (2025-07-27T11:52:09Z) - Conversation Forests: The Key to Fine Tuning Large Language Models for Multi-Turn Medical Conversations is Branching [0.0]
医学において、マルチターン視点は、診断スキーマを学習し、会話のダイナミクスをよりよく理解するために重要である。
サベージ会話フォレスト(Savage Conversation Forests, SCF)は, 分岐会話アーキテクチャを利用した強化学習フレームワークである。
SCFは各ターンで複数の可能な会話継続を生成し、異なる早期応答が下流の相互作用や診断結果にどのように影響するかをモデルが学習できるようにする。
論文 参考訳(メタデータ) (2025-07-05T16:49:34Z) - SAGE: Steering Dialog Generation with Future-Aware State-Action Augmentation [9.95917154889491]
本稿では,潜時変数を用いた対話生成における長時間水平動作を制御するSAGEという新しい手法を提案する。
我々の手法の中核は、標準言語モデルの微調整を強化したState-Action Chain (SAC) である。
実験結果から,本手法を用いてトレーニングしたモデルでは,感情的インテリジェンス指標の性能が向上したことが示された。
論文 参考訳(メタデータ) (2025-03-04T22:45:24Z) - Hello Again! LLM-powered Personalized Agent for Long-term Dialogue [63.65128176360345]
モデルに依存しない長期対話エージェント(LD-Agent)を導入する。
イベント認識、ペルソナ抽出、応答生成のための3つの独立した調整可能なモジュールが組み込まれている。
LD-Agentの有効性, 汎用性, クロスドメイン性について実験的に検証した。
論文 参考訳(メタデータ) (2024-06-09T21:58:32Z) - Evaluating Very Long-Term Conversational Memory of LLM Agents [95.84027826745609]
我々は,高品質で長期的な対話を生成するための,マシン・ヒューマン・パイプラインを導入する。
我々は、各エージェントに画像の共有と反応の能力を持たせる。
生成した会話は、長距離一貫性のために人間のアノテーションによって検証され、編集される。
論文 参考訳(メタデータ) (2024-02-27T18:42:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。