論文の概要: PsychēChat: An Empathic Framework Focused on Emotion Shift Tracking and Safety Risk Analysis in Psychological Counseling
- arxiv url: http://arxiv.org/abs/2601.12392v1
- Date: Sun, 18 Jan 2026 13:06:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.611388
- Title: PsychēChat: An Empathic Framework Focused on Emotion Shift Tracking and Safety Risk Analysis in Psychological Counseling
- Title(参考訳): PsychēChat : 心理的カウンセリングにおける感情変化追跡と安全リスク分析に着目した共感的枠組み
- Authors: Zhentao Xia, Yongqi Fan, Yuxiang Chu, Yichao Yin, Liangliang Chen, Tong Ruan, Weiyan Zhang,
- Abstract要約: 本稿では,心理的カウンセリングのための感情変化追跡と安全リスク分析を明示的に統合したサイコチャットを提案する。
具体的には、対話型ロールプレイングを用いてカウンセラー対話を合成し、感情管理モジュールとリスクコントロールモジュールの2つのモジュールを統合する。
Agent Modeは、感情管理、リスクコントロール、カウンセラー応答を協調的なマルチエージェントパイプラインに構成する。
- 参考スコア(独自算出の注目度): 12.348236978084671
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated notable advancements in psychological counseling. However, existing models generally do not explicitly model seekers' emotion shifts across counseling sessions, a core focus in classical psychological schools. Moreover, how to align counselor models' responses with these emotion shifts while proactively mitigating safety risks remains underexplored. To bridge these gaps, we propose PsychēChat, which explicitly integrates emotion shift tracking and safety risk analysis for psychological counseling. Specifically, we employ interactive role-playing to synthesize counselor--seeker dialogues, incorporating two modules: Emotion Management Module, to capture seekers' current emotions and emotion shifts; and Risk Control Module, to anticipate seekers' subsequent reactions and identify potential risks. Furthermore, we introduce two modeling paradigms. The Agent Mode structures emotion management, risk control, and counselor responses into a collaborative multi-agent pipeline. The LLM Mode integrates these stages into a unified chain-of-thought for end-to-end inference, balancing efficiency and performance. Extensive experiments, including interactive scoring, dialogue-level evaluation, and human assessment, demonstrate that PsychēChat outperforms existing methods for emotional insight and safety control.
- Abstract(参考訳): 大規模言語モデル(LLM)は、心理学的カウンセリングにおいて顕著な進歩を示している。
しかし、既存のモデルでは、カウンセリングセッションを通じて探究者の感情の変化を明示的にモデル化するものではない。
さらに、カウンセラーモデルの反応とこれらの感情の変化を協調させながら、積極的に安全リスクを緩和する方法も検討されていない。
これらのギャップを埋めるために,感情変化追跡と心理的カウンセリングのための安全リスク分析を明示的に統合したPsychēChatを提案する。
具体的には,対話型ロールプレイングを用いてカウンセラー-シーカー対話を合成し,情動管理モジュールとリスクコントロールモジュールの2つのモジュールを組み込んで,探索者のその後の反応を予測し,潜在的なリスクを特定する。
さらに、モデリングパラダイムを2つ導入する。
Agent Modeは、感情管理、リスクコントロール、カウンセラー応答を協調的なマルチエージェントパイプラインに構成する。
LLMモードは、これらのステージをエンドツーエンドの推論、効率と性能のバランスをとるために統合されたチェーンオブ思想に統合する。
対話的なスコアリング、対話レベルの評価、人間の評価を含む広範囲な実験は、PsychēChatが感情的な洞察と安全管理のために既存の方法より優れていることを示した。
関連論文リスト
- A Unified Spoken Language Model with Injected Emotional-Attribution Thinking for Human-like Interaction [50.05919688888947]
本稿では,感情的インテリジェンスのための統一言語モデルを提案する。
IEATは、ユーザーの感情状態とその根本原因をモデルの内部推論プロセスに組み込んでおり、明示的な監督として扱われるのではなく、感情を意識した推論を内部化することができる。
HumDial(Human-like Spoken Dialogue Systems Challenge)Emotional Intelligenceベンチマークの実験は、提案手法が感情軌道モデリング、感情的推論、共感的応答生成にまたがるトップランクのパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2026-01-08T14:07:30Z) - Detecting Emotional Dynamic Trajectories: An Evaluation Framework for Emotional Support in Language Models [6.810484095299127]
感情支援は人間とAIの相互作用における中核的な能力であり、心理学的カウンセリング、ロールプレイ、コンパニオンシップなどの応用がある。
大規模言語モデル(LLM)の既存の評価は、しばしば短く静的な対話に依存し、感情的サポートの動的で長期的な性質を捉えない。
本フレームワークは,328の情緒的文脈と1,152の外乱イベントからなる大規模ベンチマークを構築し,進化する対話シナリオ下での現実的な情緒的変化をシミュレートする。
論文 参考訳(メタデータ) (2025-11-12T05:47:28Z) - Sentient Agent as a Judge: Evaluating Higher-Order Social Cognition in Large Language Models [75.85319609088354]
SAGE(Sentient Agent as a Judge)は、大規模言語モデルの評価フレームワークである。
SAGEは人間のような感情の変化や内的思考をシミュレートするSentient Agentをインスタンス化する。
SAGEは、真に共感的で社会的に適応的な言語エージェントへの進捗を追跡するための、原則付き、スケーラブルで解釈可能なツールを提供する。
論文 参考訳(メタデータ) (2025-05-01T19:06:10Z) - From Rational Answers to Emotional Resonance: The Role of Controllable Emotion Generation in Language Models [16.350658746140788]
大規模言語モデル(LLM)は、一貫性があり、制御可能で、文脈的に適切な方法で感情を表現するのに苦労する。
感情ベクトル(EV)に基づく制御可能な感情生成フレームワークを提案する。
本手法は、追加のトレーニングやアーキテクチャの変更なしに、感情のトーンを微調整し、連続的に調整することができる。
論文 参考訳(メタデータ) (2025-02-06T13:38:57Z) - EmoDynamiX: Emotional Support Dialogue Strategy Prediction by Modelling MiXed Emotions and Discourse Dynamics [12.105216351739422]
EmoDynamiXは、ユーザの微粒な感情と、不均一なグラフを使用してシステム戦略の間の談話ダイナミクスをモデル化し、パフォーマンスと透明性を改善します。
2つのESCデータセットの実験結果から、EmoDynamiXは従来の最先端の手法よりも優れたマージンを持つことが示された。
論文 参考訳(メタデータ) (2024-08-16T14:54:41Z) - Self-Emotion Blended Dialogue Generation in Social Simulation Agents [18.781929161272853]
本研究では,大規模言語モデル(LLM)に基づくシミュレーションフレームワークにおける対話戦略と意思決定において,自己感情がエージェントの行動にどのように影響するかを検討する。
その結果、自己感情を取り入れることで、エージェントはより人間的な対話戦略を提示できることがわかった。
エージェントが複数のトピックについて議論する仮想シミュレーション環境では,エージェントの自己感情がエージェントの意思決定プロセスに大きな影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2024-08-03T02:11:48Z) - CauESC: A Causal Aware Model for Emotional Support Conversation [79.4451588204647]
既存のアプローチは、苦痛の感情の原因を無視します。
彼らは、話者間の相互作用における感情的ダイナミクスよりも、探究者自身の精神状態に焦点を当てている。
本稿では、まず、苦痛の感情要因と、その原因によって引き起こされる感情効果を認識する新しいフレームワークCauESCを提案する。
論文 参考訳(メタデータ) (2024-01-31T11:30:24Z) - Empathetic Dialogue Generation via Sensitive Emotion Recognition and
Sensible Knowledge Selection [47.60224978460442]
情緒的対話生成のためのシリアル・アンド・感情知識相互作用(SEEK)法を提案する。
我々は,会話中の感情のダイナミックス(感情の流れ)に敏感な微粒なエンコーディング戦略を用いて,応答の感情依存特性を予測するとともに,知識と感情の相互作用をモデル化し,より敏感な応答を生成する新しい枠組みを設計する。
論文 参考訳(メタデータ) (2022-10-21T03:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。