論文の概要: Multi-Objective Alignment of Language Models for Personalized Psychotherapy
- arxiv url: http://arxiv.org/abs/2602.16053v1
- Date: Tue, 17 Feb 2026 22:08:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.452852
- Title: Multi-Objective Alignment of Language Models for Personalized Psychotherapy
- Title(参考訳): パーソナライズされた心理療法のための言語モデルの多目的アライメント
- Authors: Mehrab Beikzadeh, Yasaman Asadollah Salmanpour, Ashima Suvarna, Sriram Sankararaman, Matteo Malgaroli, Majid Sarrafzadeh, Saadia Gabriel,
- Abstract要約: メンタルヘルス障害は世界中で10億人以上に影響を与える。
直接選好最適化を用いた多目的アライメントフレームワークを開発した。
共感、安全、アクティブリスニング、自己モチベーションのある変化、信頼/ラポート、患者自立の6つの基準で報酬モデルをトレーニングします。
- 参考スコア(独自算出の注目度): 6.590479393944954
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mental health disorders affect over 1 billion people worldwide, yet access to care remains limited by workforce shortages and cost constraints. While AI systems show therapeutic promise, current alignment approaches optimize objectives independently, failing to balance patient preferences with clinical safety. We survey 335 individuals with lived mental health experience to collect preference rankings across therapeutic dimensions, then develop a multi-objective alignment framework using direct preference optimization. We train reward models for six criteria -- empathy, safety, active listening, self-motivated change, trust/rapport, and patient autonomy -- and systematically compare multi-objective approaches against single-objective optimization, supervised fine-tuning, and parameter merging. Multi-objective DPO (MODPO) achieves superior balance (77.6% empathy, 62.6% safety) compared to single-objective optimization (93.6% empathy, 47.8% safety), and therapeutic criteria outperform general communication principles by 17.2%. Blinded clinician evaluation confirms MODPO is consistently preferred, with LLM-evaluator agreement comparable to inter-clinician reliability.
- Abstract(参考訳): メンタルヘルス障害は世界中で10億人以上に影響を与えるが、労働力不足やコスト制約によって医療へのアクセスは制限されている。
AIシステムは治療の約束を示すが、現在のアライメントアプローチは、患者の好みと臨床安全性のバランスをとらないために、目的を独立して最適化する。
精神保健経験のある335名の被験者を対象に、治療範囲の選好ランクを収集し、直接選好最適化を用いた多目的アライメント・フレームワークを開発した。
共感、安全、アクティブリスニング、自己モチベーションのある変化、信頼/ラプポート、そして患者の自律性の6つの基準で報酬モデルをトレーニングし、単目的最適化に対する多目的アプローチ、教師付き微調整、パラメータマージを体系的に比較します。
多目的DPO(MODPO)は、単目的最適化(93.6%の共感、47.8%の安全性)よりも優れたバランス(77.6%の共感、62.6%の安全性)を達成し、治療基準は一般的なコミュニケーションの原則より17.2%向上している。
盲検の臨床評価では、MODPOが一貫して好まれており、LCM-evaluator agreementはクリニック間信頼性に匹敵するものである。
関連論文リスト
- Hierarchical Dual-Strategy Unlearning for Biomedical and Healthcare Intelligence Using Imperfect and Privacy-Sensitive Medical Data [15.916549580598462]
大きな言語モデル(LLM)は例外的な性能を示すが、かなりのプライバシーリスクを引き起こす。
選択的知識学習のための階層的二重ストラテジーフレームワークを提案する。
当社のフレームワークは、パラメータの0.1%しか変更することなく、堅牢なプライバシ保証を維持しています。
論文 参考訳(メタデータ) (2025-11-23T15:28:19Z) - The Alignment Paradox of Medical Large Language Models in Infertility Care: Decoupling Algorithmic Improvement from Clinical Decision-making Quality [12.724499570706051]
8000以上の不妊治療記録を用いて4つのアライメント戦略を評価した。
GRPOは複数の決定層にまたがるアルゴリズムの精度が最も高い。
臨床医はSFTモデルを常に好んでおり、より明確な推論過程を引用している。
論文 参考訳(メタデータ) (2025-11-22T14:48:54Z) - A Novel Evaluation Benchmark for Medical LLMs: Illuminating Safety and Effectiveness in Clinical Domains [15.73821689524201]
大言語モデル (LLMs) は臨床決定支援において有望であるが、安全性評価と有効性検証において大きな課題に直面している。
臨床専門家のコンセンサスに基づく多次元フレームワークであるCSEDBを開発した。
13名の専門医が, 現実のシナリオをシミュレートする26の臨床部門にまたがって, 2,069件のオープンエンドQ&A項目を作成した。
論文 参考訳(メタデータ) (2025-07-31T12:10:00Z) - Beyond Benchmarks: Dynamic, Automatic And Systematic Red-Teaming Agents For Trustworthy Medical Language Models [87.66870367661342]
大規模言語モデル(LLM)は、医療におけるAIアプリケーションで使用される。
LLMを継続的にストレステストするレッドチームフレームワークは、4つのセーフティクリティカルなドメインで重大な弱点を明らかにすることができる。
敵エージェントのスイートは、自律的に変化するテストケースに適用され、安全でないトリガー戦略を特定し、評価する。
私たちのフレームワークは、進化可能でスケーラブルで信頼性の高い、次世代の医療AIのセーフガードを提供します。
論文 参考訳(メタデータ) (2025-07-30T08:44:22Z) - Bounded Rationality for LLMs: Satisficing Alignment at Inference-Time [52.230936493691985]
本稿では,2次基準のしきい値に基づく制約を満たしつつ,主目的を最大化し,アライメントの多面性に対処する推論フレームワークSITAlignを提案する。
我々は、満足度に基づく推論アライメントアプローチの準最適境界を導出することで理論的洞察を提供する。
論文 参考訳(メタデータ) (2025-05-29T17:56:05Z) - Ψ-Arena: Interactive Assessment and Optimization of LLM-based Psychological Counselors with Tripartite Feedback [51.26493826461026]
大規模言語モデル(LLM)の総合的評価と最適化のための対話型フレームワークであるPsi-Arenaを提案する。
アリーナは、心理学的にプロファイルされたNPCクライアントとの多段階対話を通じて現実世界のカウンセリングをシミュレートする現実的なアリーナ相互作用を特徴としている。
8つの最先端のLLM実験は、異なる実世界のシナリオと評価の観点で大きなパフォーマンス変化を示す。
論文 参考訳(メタデータ) (2025-05-06T08:22:51Z) - Controllable Preference Optimization: Toward Controllable Multi-Objective Alignment [103.12563033438715]
人工知能におけるアライメントは、モデル応答と人間の好みと値の一貫性を追求する。
既存のアライメント技術は、主に一方向であり、様々な目的に対して、最適以下のトレードオフと柔軟性の低下につながる。
制御可能な選好最適化(CPO)を導入し、異なる目的に対する選好スコアを明確に指定する。
論文 参考訳(メタデータ) (2024-02-29T12:12:30Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。