論文の概要: The Art of Socratic Inquiry: A Framework for Proactive Template-Guided Therapeutic Conversation Generation
- arxiv url: http://arxiv.org/abs/2602.01598v1
- Date: Mon, 02 Feb 2026 03:40:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.881279
- Title: The Art of Socratic Inquiry: A Framework for Proactive Template-Guided Therapeutic Conversation Generation
- Title(参考訳): Socratic Inquiry: プロアクティブテンプレートガイドによる治療会話生成のためのフレームワーク
- Authors: Mingwen Zhang, Minqiang Yang, Changsheng Ma, Yang Yu, Hui Bai, Chen Xu, Xiangzhen Kong, Bin Hu,
- Abstract要約: 心理学的大言語モデルに変換する治療目的プランナーであるtextbfSocratic Inquiry Framework (SIF) を提案する。
SIFは textbfwhen を分解して textbfwhen から質問する。
実験により、SIFはプロアクティブな質問頻度、会話深度、治療アライメントを著しく向上させることが示された。
- 参考スコア(独自算出の注目度): 10.636413819138319
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Proactive questioning, where therapists deliberately initiate structured, cognition-guiding inquiries, is a cornerstone of cognitive behavioral therapy (CBT). Yet, current psychological large language models (LLMs) remain overwhelmingly reactive, defaulting to empathetic but superficial responses that fail to surface latent beliefs or guide behavioral change. To bridge this gap, we propose the \textbf{Socratic Inquiry Framework (SIF)}, a lightweight, plug-and-play therapeutic intent planner that transforms LLMs from passive listeners into active cognitive guides. SIF decouples \textbf{when to ask} (via Strategy Anchoring) from \textbf{what to ask} (via Template Retrieval), enabling context-aware, theory-grounded questioning without end-to-end retraining. Complementing SIF, we introduce \textbf{Socratic-QA}, a high-quality dataset of strategy-aligned Socratic sequences that provides explicit supervision for proactive reasoning. Experiments show that SIF significantly enhances proactive questioning frequency, conversational depth, and therapeutic alignment, marking a clear shift from reactive comfort to proactive exploration. Our work establishes a new paradigm for psychologically informed LLMs: not just to respond, but to guide.
- Abstract(参考訳): プロアクティブな質問は、セラピストが意図的に構造化された認知指導的問合せを開始し、認知行動療法(CBT)の基礎となる。
しかし、現在の心理学的大規模言語モデル(LLM)は圧倒的に反応性が保たれており、情緒的だが表面的な反応によって、潜伏した信念や行動の変化を導いていない。
このギャップを埋めるために,LLMを受動的リスナから能動的認知ガイドに変換する軽量でプラグアンドプレイな治療意図プランナーである「textbf{Socratic Inquiry Framework(SIF)」を提案する。
SIF は \textbf{when to ask} (via Strategy Anchoring) を \textbf{what to ask} (via Template Retrieval) から切り離す。
SIFを補完する,戦略に整合したソクラティックシーケンスの高品質なデータセットである \textbf{Socratic-QA} を導入する。
実験の結果、SIFは積極的に質問する頻度、会話深度、治療アライメントを著しく向上させ、反応性のある快適さから前向きな探索への明確なシフトを示すことが示された。
我々の研究は、心理的に知らされたLLMのための新しいパラダイムを確立します。
関連論文リスト
- KBQA-R1: Reinforcing Large Language Models for Knowledge Base Question Answering [64.62317305868264]
テキスト模倣から強化学習によるインタラクション最適化へパラダイムをシフトするフレームワークである textbfKBQA-R1 を提案する。
KBQAを多ターン決定プロセスとして扱うことで,行動のリストを用いて知識ベースをナビゲートすることを学ぶ。
WebQSP、GrailQA、GraphQuestionsの実験では、KBQA-R1が最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-12-10T17:45:42Z) - Ask, Answer, and Detect: Role-Playing LLMs for Personality Detection with Question-Conditioned Mixture-of-Experts [4.618735978506653]
ROMEは、心理的知識を人格検出に明示的に注入する新しいフレームワークである。
ROMEは、実世界の2つのデータセットの実験において、最先端のベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2025-12-09T17:07:54Z) - Selective Prompting Tuning for Personalized Conversations with LLMs [31.28284591597932]
textbfSelective textbfPrompt textbfTuning (SPT)を提案する。
SPTは、他の重要なパフォーマンス指標の改善とともに、応答の多様性を最大90%向上させる。
論文 参考訳(メタデータ) (2024-06-26T09:03:52Z) - LLM Questionnaire Completion for Automatic Psychiatric Assessment [49.1574468325115]
大規模言語モデル(LLM)を用いて、非構造的心理面接を、様々な精神科領域と人格領域にまたがる構造化された質問票に変換する。
得られた回答は、うつ病の標準化された精神医学的指標(PHQ-8)とPTSD(PCL-C)の予測に使用される特徴として符号化される。
論文 参考訳(メタデータ) (2024-06-09T09:03:11Z) - Socratic Reasoning Improves Positive Text Rewriting [49.32560132826547]
否定的思考を肯定的思考に反映することは、精神保健や心理療法に対するいくつかの認知的アプローチの欠如である。
我々は、思考の書き直しプロセスを合理化するために、textscSocraticReframeと呼ばれる新しいフレームワークを開発した。
論文 参考訳(メタデータ) (2024-03-05T15:05:06Z) - Response Generation for Cognitive Behavioral Therapy with Large Language
Models: Comparative Study with Socratic Questioning [6.400704401007114]
本研究では,感情変化,認知的変化,対話品質などの主観的評価に及ぼす生成応答の影響について検討した。
GPT-4を使用すると、気分の変化、共感、その他の対話の質が著しく向上する。
論文 参考訳(メタデータ) (2024-01-29T08:53:41Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z) - Response-act Guided Reinforced Dialogue Generation for Mental Health
Counseling [25.524804770124145]
本稿では、メンタルヘルスカウンセリング会話のための対話行動誘導応答生成器READERについて述べる。
READERは変換器上に構築されており、次の発話に対する潜在的な対話行為d(t+1)を共同で予測し、適切な応答u(t+1)を生成する。
ベンチマークカウンセリング会話データセットであるHOPE上でREADERを評価する。
論文 参考訳(メタデータ) (2023-01-30T08:53:35Z) - MISC: A MIxed Strategy-Aware Model Integrating COMET for Emotional
Support Conversation [64.37111498077866]
本稿では,感情支援会話のための新しいモデルを提案する。
ユーザの微妙な感情状態を推測し、その後、戦略の混合を使って巧みに応答する。
評価実験の結果,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-03-25T10:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。