論文の概要: CARE: An Explainable Computational Framework for Assessing Client-Perceived Therapeutic Alliance Using Large Language Models
- arxiv url: http://arxiv.org/abs/2602.20648v1
- Date: Tue, 24 Feb 2026 07:52:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.657804
- Title: CARE: An Explainable Computational Framework for Assessing Client-Perceived Therapeutic Alliance Using Large Language Models
- Title(参考訳): CARE: 大規模言語モデルを用いたクライアント認識セラピーアライアンス評価のための説明可能な計算フレームワーク
- Authors: Anqi Li, Chenxiao Wang, Yu Lu, Renjun Xu, Lizhi Ma, Zhenzhong Lan,
- Abstract要約: 本稿では,多次元アライアンススコアを自動的に予測し,カウンセリングテキストから解釈可能な有理性を生成するLLMベースのフレームワークであるCAREを提案する。
CAREはCounselingWAIデータセット上に構築されており、9,516人の専門家による合理性によって強化されている。
実験の結果,CAREはLLMよりも優れており,カウンセラー評価とクライアント認識アライアンスとのギャップを大幅に減らすことがわかった。
- 参考スコア(独自算出の注目度): 19.027335814014528
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Client perceptions of the therapeutic alliance are critical for counseling effectiveness. Accurately capturing these perceptions remains challenging, as traditional post-session questionnaires are burdensome and often delayed, while existing computational approaches produce coarse scores, lack interpretable rationales, and fail to model holistic session context. We present CARE, an LLM-based framework to automatically predict multi-dimensional alliance scores and generate interpretable rationales from counseling transcripts. Built on the CounselingWAI dataset and enriched with 9,516 expert-curated rationales, CARE is fine-tuned using rationale-augmented supervision with the LLaMA-3.1-8B-Instruct backbone. Experiments show that CARE outperforms leading LLMs and substantially reduces the gap between counselor evaluations and client-perceived alliance, achieving over 70% higher Pearson correlation with client ratings. Rationale-augmented supervision further improves predictive accuracy. CARE also produces high-quality, contextually grounded rationales, validated by both automatic and human evaluations. Applied to real-world Chinese online counseling sessions, CARE uncovers common alliance-building challenges, illustrates how interaction patterns shape alliance development, and provides actionable insights, demonstrating its potential as an AI-assisted tool for supporting mental health care.
- Abstract(参考訳): 治療同盟に対するクライアントの認識はカウンセリングの効果にとって重要である。
既存の計算手法は粗いスコアを生成し、解釈可能な合理性を欠き、全体論的なセッションコンテキストのモデル化に失敗する。
本稿では,多次元アライアンススコアを自動的に予測し,カウンセリングテキストから解釈可能な有理性を生成するLLMベースのフレームワークであるCAREを提案する。
CounselingWAIデータセット上に構築され、9,516のエキスパートキュレートされた有理数で強化されたCAREは、LLaMA-3.1-8B-インストラクトのバックボーンを使用して、合理的に強化された監視によって微調整される。
実験の結果,CAREはLLMよりも優れており,カウンセラー評価とクライアント認識アライアンスとのギャップを大幅に減らし,Pearsonとクライアント評価との相関が70%以上高いことがわかった。
Rationale強化された監視は、予測精度をさらに向上させる。
CAREはまた、自動評価と人的評価の両方によって検証される高品質で文脈的に基礎付けられた有理性も生み出す。
実際の中国のオンラインカウンセリングセッションに適用されたCAREは、共通のアライアンス構築の課題を明らかにし、インタラクションパターンがどのようにアライアンス開発を形作るかを説明し、行動可能な洞察を提供し、メンタルヘルスを支援するAI支援ツールとしての可能性を示す。
関連論文リスト
- PAIR-SAFE: A Paired-Agent Approach for Runtime Auditing and Refining AI-Mediated Mental Health Support [18.251267901872886]
大規模言語モデル(LLM)は、メンタルヘルスのサポートにますます利用されている。
LLMは、過度に指示的、一貫性のない、または臨床的に不一致な応答を生成することができる。
PAIR-SAFEはAIによるメンタルヘルスサポートの監査と改善のためのペアエージェントフレームワークである。
論文 参考訳(メタデータ) (2026-01-19T06:20:57Z) - MindChat: A Privacy-preserving Large Language Model for Mental Health Support [10.332226758787277]
我々は、メンタルヘルス支援のためのプライバシー保護型大規模言語モデルであるMindChatを紹介する。
我々はまた、マルチエージェントロールプレイングフレームワークを用いて構築された合成マルチターンカウンセリングデータセットであるMindCorpusを提示する。
論文 参考訳(メタデータ) (2026-01-05T10:54:18Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Ψ-Arena: Interactive Assessment and Optimization of LLM-based Psychological Counselors with Tripartite Feedback [51.26493826461026]
大規模言語モデル(LLM)の総合的評価と最適化のための対話型フレームワークであるPsi-Arenaを提案する。
アリーナは、心理学的にプロファイルされたNPCクライアントとの多段階対話を通じて現実世界のカウンセリングをシミュレートする現実的なアリーナ相互作用を特徴としている。
8つの最先端のLLM実験は、異なる実世界のシナリオと評価の観点で大きなパフォーマンス変化を示す。
論文 参考訳(メタデータ) (2025-05-06T08:22:51Z) - Quantifying the Reasoning Abilities of LLMs on Real-world Clinical Cases [48.87360916431396]
MedR-Benchは1,453例の構造化患者のベンチマークデータセットで、推論基準を付した注釈付きである。
本稿では,3つの批判的診察勧告,診断決定,治療計画を含む枠組みを提案し,患者のケアジャーニー全体をシミュレートする。
このベンチマークを用いて、DeepSeek-R1、OpenAI-o3-mini、Gemini-2.0-Flash Thinkingなど、最先端の5つのLCMを評価した。
論文 参考訳(メタデータ) (2025-03-06T18:35:39Z) - LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - Understanding the Therapeutic Relationship between Counselors and Clients in Online Text-based Counseling using LLMs [18.605352662843575]
テキストベースのカウンセリングにおける治療提携の進展を理解するために,大規模言語モデル(LLM)を用いた自動アプローチを提案する。
我々は包括的カウンセリングデータセットを収集し、このフレームワークに基づいてサブセット上で複数の専門家評価を行う。
当社の調査結果は、カウンセラーが顧客との強いオンライン関係を育む上で直面する課題を浮き彫りにした。
論文 参考訳(メタデータ) (2024-02-19T09:00:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。