論文の概要: MAGneT: Coordinated Multi-Agent Generation of Synthetic Multi-Turn Mental Health Counseling Sessions
- arxiv url: http://arxiv.org/abs/2509.04183v1
- Date: Thu, 04 Sep 2025 12:59:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.165349
- Title: MAGneT: Coordinated Multi-Agent Generation of Synthetic Multi-Turn Mental Health Counseling Sessions
- Title(参考訳): MAGneT: 合成多段階メンタルヘルスカウンセリングセッションの協調的マルチエージェント生成
- Authors: Aishik Mandal, Tanmoy Chakraborty, Iryna Gurevych,
- Abstract要約: 合成心理カウンセリングセッション生成のための新しいマルチエージェントフレームワークであるMAGneTを紹介する。
従来の単エージェントアプローチとは異なり、MAGneTは実際のカウンセリングの構造とニュアンスをよりよく捉えている。
実験の結果,MAGneTは既存のカウンセリングセッションの質,多様性,治療的アライメントにおいて有意に優れていた。
- 参考スコア(独自算出の注目度): 58.61680631581921
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing demand for scalable psychological counseling highlights the need for fine-tuning open-source Large Language Models (LLMs) with high-quality, privacy-compliant data, yet such data remains scarce. Here we introduce MAGneT, a novel multi-agent framework for synthetic psychological counseling session generation that decomposes counselor response generation into coordinated sub-tasks handled by specialized LLM agents, each modeling a key psychological technique. Unlike prior single-agent approaches, MAGneT better captures the structure and nuance of real counseling. In addition, we address inconsistencies in prior evaluation protocols by proposing a unified evaluation framework integrating diverse automatic and expert metrics. Furthermore, we expand the expert evaluations from four aspects of counseling in previous works to nine aspects, enabling a more thorough and robust assessment of data quality. Empirical results show that MAGneT significantly outperforms existing methods in quality, diversity, and therapeutic alignment of the generated counseling sessions, improving general counseling skills by 3.2% and CBT-specific skills by 4.3% on average on cognitive therapy rating scale (CTRS). Crucially, experts prefer MAGneT-generated sessions in 77.2% of cases on average across all aspects. Moreover, fine-tuning an open-source model on MAGneT-generated sessions shows better performance, with improvements of 6.3% on general counseling skills and 7.3% on CBT-specific skills on average on CTRS over those fine-tuned with sessions generated by baseline methods. We also make our code and data public.
- Abstract(参考訳): スケーラブルな心理的カウンセリングの需要が高まっていることは、高品質でプライバシに準拠したデータを備えた、微調整のオープンソースLarge Language Models(LLMs)の必要性を浮き彫りにしている。
本稿では,カウンセラー応答生成を,特殊なLDMエージェントによって処理される調整されたサブタスクに分解する,合成心理学的カウンセリングセッション生成のための新しいマルチエージェントフレームワークであるMAGneTを紹介する。
従来の単エージェントアプローチとは異なり、MAGneTは実際のカウンセリングの構造とニュアンスをよりよく捉えている。
さらに,多様な自動および専門的メトリクスを統合する統一評価フレームワークを提案することにより,事前評価プロトコルの不整合に対処する。
さらに、これまでの4つのカウンセリングの側面から9つの側面まで専門的な評価を拡大し、データ品質のより徹底的で堅牢な評価を可能にした。
実験の結果、MAGneTは既存のカウンセリングセッションの質、多様性、治療の手法よりも優れており、認知療法評価尺度(CTRS)の平均では、一般的なカウンセリングスキルが3.2%向上し、CBT固有のスキルが4.3%向上した。
重要なことに、専門家はすべての面で平均77.2%のケースでMAGneT生成セッションを好んでいる。
さらに、MAGneT生成セッション上でのオープンソースモデルの微調整では、一般的なカウンセリングスキルの6.3%、CTRS上での平均的なCBT固有のスキルの7.3%が、ベースラインメソッドによって生成されたセッションの微調整よりも優れたパフォーマンスを示している。
コードとデータも公開しています。
関連論文リスト
- Med-RewardBench: Benchmarking Reward Models and Judges for Medical Multimodal Large Language Models [57.73472878679636]
Med-RewardBenchは、医療報酬モデルと審査員を評価するために特別に設計された最初のベンチマークである。
Med-RewardBenchは、13の臓器系と8の臨床部門にまたがるマルチモーダルデータセットを特徴としている。
厳格な3段階のプロセスは、6つの臨床的に重要な次元にわたる高品質な評価データを保証する。
論文 参考訳(メタデータ) (2025-08-29T08:58:39Z) - Ψ-Arena: Interactive Assessment and Optimization of LLM-based Psychological Counselors with Tripartite Feedback [51.26493826461026]
大規模言語モデル(LLM)の総合的評価と最適化のための対話型フレームワークであるPsi-Arenaを提案する。
アリーナは、心理学的にプロファイルされたNPCクライアントとの多段階対話を通じて現実世界のカウンセリングをシミュレートする現実的なアリーナ相互作用を特徴としている。
8つの最先端のLLM実験は、異なる実世界のシナリオと評価の観点で大きなパフォーマンス変化を示す。
論文 参考訳(メタデータ) (2025-05-06T08:22:51Z) - AutoCBT: An Autonomous Multi-agent Framework for Cognitive Behavioral Therapy in Psychological Counseling [57.054489290192535]
伝統的な個人の心理カウンセリングは主にニッチであり、心理学的な問題を持つ個人によって選択されることが多い。
オンラインの自動カウンセリングは、恥の感情によって助けを求めることをためらう人たちに潜在的な解決策を提供する。
論文 参考訳(メタデータ) (2025-01-16T09:57:12Z) - CBT-Bench: Evaluating Large Language Models on Assisting Cognitive Behavior Therapy [67.23830698947637]
認知行動療法(CBT)支援の体系的評価のための新しいベンチマークであるCBT-BENCHを提案する。
我々は, CBT-BENCHにおける3段階の課題を含む: I: 基本的CBT知識獲得, 複数選択質問のタスク; II: 認知的モデル理解, 認知的歪み分類, 主根的信念分類, きめ細かい中核信念分類のタスク; III: 治療的応答生成, CBTセラピーセッションにおける患者音声に対する応答生成のタスク。
実験結果から,LLMはCBT知識のリサイティングに優れるが,複雑な実世界のシナリオでは不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-10-17T04:52:57Z) - Advancing Mental Health Pre-Screening: A New Custom GPT for Psychological Distress Assessment [0.8287206589886881]
サイコアナリティスト」はOpenAIのGPT-4をベースとしたカスタムGPTモデルであり、スクリーニング前の精神疾患に最適化されている。
このモデルは、精神疾患のニュアンス言語指標を正しくデコードする。
論文 参考訳(メタデータ) (2024-08-03T00:38:30Z) - Cactus: Towards Psychological Counseling Conversations using Cognitive Behavioral Theory [24.937025825501998]
我々は,認知行動療法(Cognitive Behavioral Therapy, CBT)の目標指向的, 構造化的アプローチを用いて, 実生活インタラクションをエミュレートする多ターン対話データセットを作成する。
我々は、実際のカウンセリングセッションの評価、専門家の評価との整合性の確保に使用される確立された心理学的基準をベンチマークする。
Cactusで訓練されたモデルであるCamelはカウンセリングスキルにおいて他のモデルよりも優れており、カウンセリングエージェントとしての有効性と可能性を強調している。
論文 参考訳(メタデータ) (2024-07-03T13:41:31Z) - Exploring the Efficacy of Large Language Models in Summarizing Mental
Health Counseling Sessions: A Benchmark Study [17.32433545370711]
セッションの包括的な要約は、メンタルヘルスカウンセリングにおいて効果的な継続を可能にする。
手動要約は、専門家の注意をコアカウンセリングプロセスから逸脱させ、重要な課題を呈する。
本研究は、治療セッションの様々な構成要素を選択的に要約する上で、最先端の大規模言語モデル(LLM)の有効性を評価する。
論文 参考訳(メタデータ) (2024-02-29T11:29:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。