論文の概要: MAQuA: Adaptive Question-Asking for Multidimensional Mental Health Screening using Item Response Theory
- arxiv url: http://arxiv.org/abs/2508.07279v1
- Date: Sun, 10 Aug 2025 10:33:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.78575
- Title: MAQuA: Adaptive Question-Asking for Multidimensional Mental Health Screening using Item Response Theory
- Title(参考訳): MAQuA:項目応答理論を用いた多次元メンタルヘルススクリーニングのための適応的質問応答法
- Authors: Vasudha Varadarajan, Hui Xu, Rebecca Astrid Boehme, Mariam Marlan Mirstrom, Sverker Sikstrom, H. Andrew Schwartz,
- Abstract要約: 我々は,同時多次元メンタルヘルススクリーニングのための適応型質問応答フレームワークMAQuAを紹介する。
また,MAQuAは,ランダムな順序付けに比べて,スコア安定化に必要な評価質問数を50~87%削減することを示した。
MAQuAは内因性(抑うつ、不安)と外因性(物質使用、摂食障害)の両方で堅牢な性能を示す。
- 参考スコア(独自算出の注目度): 7.619379021924016
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in large language models (LLMs) offer new opportunities for scalable, interactive mental health assessment, but excessive querying by LLMs burdens users and is inefficient for real-world screening across transdiagnostic symptom profiles. We introduce MAQuA, an adaptive question-asking framework for simultaneous, multidimensional mental health screening. Combining multi-outcome modeling on language responses with item response theory (IRT) and factor analysis, MAQuA selects the questions with most informative responses across multiple dimensions at each turn to optimize diagnostic information, improving accuracy and potentially reducing response burden. Empirical results on a novel dataset reveal that MAQuA reduces the number of assessment questions required for score stabilization by 50-87% compared to random ordering (e.g., achieving stable depression scores with 71% fewer questions and eating disorder scores with 85% fewer questions). MAQuA demonstrates robust performance across both internalizing (depression, anxiety) and externalizing (substance use, eating disorder) domains, with early stopping strategies further reducing patient time and burden. These findings position MAQuA as a powerful and efficient tool for scalable, nuanced, and interactive mental health screening, advancing the integration of LLM-based agents into real-world clinical workflows.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、スケーラブルでインタラクティブなメンタルヘルスアセスメントのための新たな機会を提供するが、LLMによる過剰なクエリは、ユーザを負担し、経時的症状プロファイルを横断する現実世界のスクリーニングには非効率である。
我々は,同時多次元メンタルヘルススクリーニングのための適応型質問応答フレームワークMAQuAを紹介する。
言語応答のマルチアウトカムモデリングと項目応答理論(IRT)と因子分析を組み合わせることで、MAQuAは各ターンで複数の次元にまたがる最も情報的な応答を持つ質問を選択し、診断情報を最適化し、精度を向上し、応答負担を軽減する。
新たなデータセットを用いた実験結果から,MAQuAはランダムな順序付けに比べて,スコア安定化に必要な評価質問数を50~87%削減することがわかった(例えば,安定なうつ病スコアを71%減少し,障害スコアを85%減少させるなど)。
MAQuAは、内因性(抑うつ、不安)と外因性(物質使用、摂食障害)の両方で堅牢なパフォーマンスを示し、早期停止戦略は患者の時間と負担をさらに軽減する。
これらの結果から、MAQuAは拡張性、ニュアンス、インタラクティブなメンタルヘルススクリーニングのための強力で効率的なツールとして位置づけられ、LLMベースのエージェントを実際の臨床ワークフローに統合する。
関連論文リスト
- Reinforcing Question Answering Agents with Minimalist Policy Gradient Optimization [80.09112808413133]
Mujicaは、質問をサブクエストの非循環グラフに分解するプランナーであり、検索と推論を通じて質問を解決するワーカーである。
MyGOは、従来のポリシー更新を勾配的いいねりの最大推定に置き換える、新しい強化学習手法である。
複数のデータセットにまたがる実験結果から,マルチホップQA性能向上における MujicaMyGO の有効性が示された。
論文 参考訳(メタデータ) (2025-05-20T18:33:03Z) - Enhancing Depression Detection via Question-wise Modality Fusion [47.45016610508853]
うつ病は、かなりの個人的・社会的コストを発生させる、非常に普及し、無効な状態である。
そこで我々は,新しい不均衡正規対数関数を用いて学習した質問知度モダリティ・フュージョン(Modality Fusion)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-26T12:34:34Z) - Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - Uncertainty of Thoughts: Uncertainty-Aware Planning Enhances Information Seeking in Large Language Models [73.79091519226026]
Uncertainty of Thoughts (UoT) は、大きな言語モデルを拡張するアルゴリズムであり、効果的な質問をすることで積極的に情報を求めることができる。
医療診断、トラブルシューティング、および20の質問ゲームに関する実験において、UoTは、タスク完了の成功率において平均38.1%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-02-05T18:28:44Z) - Large Language Models Encode Clinical Knowledge [21.630872464930587]
大規模言語モデル(LLM)は、自然言語の理解と生成において印象的な能力を示している。
本稿では, 現実性, 正確性, 潜在的害, バイアスを含む複数の軸に沿ったモデル回答の人為的評価のための枠組みを提案する。
本研究は,モデル尺度とインストラクション・インシデント・チューニングにより,理解,知識の想起,医学的推論が向上することを示す。
論文 参考訳(メタデータ) (2022-12-26T14:28:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。