論文の概要: Explainable Depression Detection in Clinical Interviews with Personalized Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2503.01315v1
- Date: Mon, 03 Mar 2025 08:59:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:20:18.856055
- Title: Explainable Depression Detection in Clinical Interviews with Personalized Retrieval-Augmented Generation
- Title(参考訳): パーソナライズされた検索型世代による臨床面接における説明可能な抑うつ検出
- Authors: Linhai Zhang, Ziyang Gao, Deyu Zhou, Yulan He,
- Abstract要約: うつ病は広範な精神疾患であり、臨床面接は評価のための金の基準である。
現在のシステムは主にブラックボックスニューラルネットワークを使用し、解釈性に欠ける。
本稿では,説明可能な抑うつ検出のための検索拡張フレームワークREDを提案する。
- 参考スコア(独自算出の注目度): 32.163466666512996
- License:
- Abstract: Depression is a widespread mental health disorder, and clinical interviews are the gold standard for assessment. However, their reliance on scarce professionals highlights the need for automated detection. Current systems mainly employ black-box neural networks, which lack interpretability, which is crucial in mental health contexts. Some attempts to improve interpretability use post-hoc LLM generation but suffer from hallucination. To address these limitations, we propose RED, a Retrieval-augmented generation framework for Explainable depression Detection. RED retrieves evidence from clinical interview transcripts, providing explanations for predictions. Traditional query-based retrieval systems use a one-size-fits-all approach, which may not be optimal for depression detection, as user backgrounds and situations vary. We introduce a personalized query generation module that combines standard queries with user-specific background inferred by LLMs, tailoring retrieval to individual contexts. Additionally, to enhance LLM performance in social intelligence, we augment LLMs by retrieving relevant knowledge from a social intelligence datastore using an event-centric retriever. Experimental results on the real-world benchmark demonstrate RED's effectiveness compared to neural networks and LLM-based baselines.
- Abstract(参考訳): うつ病は広範な精神疾患であり、臨床面接は評価のための金の基準である。
しかしながら、不足するプロフェッショナルへの依存は、自動検出の必要性を強調している。
現在のシステムは、主にブラックボックスニューラルネットワークを採用しており、解釈性に欠けており、メンタルヘルスの文脈において不可欠である。
ポストホックLCM生成による解釈性向上の試みもあるが、幻覚に悩まされている。
これらの制約に対処するため、Explainable depression DetectionのためのRetrieval-augmented generation frameworkであるREDを提案する。
REDは、臨床面接書から証拠を回収し、予測の説明を提供する。
従来のクエリベースの検索システムは、ユーザ背景や状況が異なるため、抑うつ検出には最適ではないかもしれないワンサイズ・オールアプローチを使用している。
我々は,標準クエリとLLMによって推論されるユーザ固有のバックグラウンドを組み合わせ,検索を個々のコンテキストに合わせたパーソナライズされたクエリ生成モジュールを提案する。
さらに, ソーシャルインテリジェンスにおけるLLMの性能向上のために, イベント中心のレトリバーを用いて, 関連知識をソーシャルインテリジェンスデータストアから検索することで, LLMを増強する。
実世界のベンチマークの実験結果は、ニューラルネットワークやLLMベースのベースラインと比較してREDの有効性を示している。
関連論文リスト
- LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - LLM Questionnaire Completion for Automatic Psychiatric Assessment [49.1574468325115]
大規模言語モデル(LLM)を用いて、非構造的心理面接を、様々な精神科領域と人格領域にまたがる構造化された質問票に変換する。
得られた回答は、うつ病の標準化された精神医学的指標(PHQ-8)とPTSD(PCL-C)の予測に使用される特徴として符号化される。
論文 参考訳(メタデータ) (2024-06-09T09:03:11Z) - Depression Detection on Social Media with Large Language Models [23.075317886505193]
抑うつ検出は、ソーシャルメディア上の投稿履歴を分析して、個人が抑うつに苦しむかどうかを判断することを目的としている。
本稿では,医学的知識と大規模言語モデルの最近の進歩を融合した,DORISと呼ばれる新規なうつ病検出システムを提案する。
論文 参考訳(メタデータ) (2024-03-16T01:01:16Z) - Enhancing Uncertainty-Based Hallucination Detection with Stronger Focus [99.33091772494751]
大規模言語モデル(LLM)は、様々な分野にわたる印象的なパフォーマンスで大きな人気を集めている。
LLMは、ユーザの期待を満たさない非現実的あるいは非感覚的なアウトプットを幻覚させる傾向がある。
LLMにおける幻覚を検出するための新しい基準のない不確実性に基づく手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T08:39:17Z) - Rethinking Large Language Models in Mental Health Applications [42.21805311812548]
大規模言語モデル(LLM)は、メンタルヘルスにおいて貴重な資産となっている。
本稿では,精神保健分野におけるLSMの利用について考察する。
論文 参考訳(メタデータ) (2023-11-19T08:40:01Z) - Neural Retrievers are Biased Towards LLM-Generated Content [35.40318940303482]
大規模言語モデル(LLM)は情報検索(IR)のパラダイムに革命をもたらした。
これらのLCM生成した文書がIRシステムにどのように影響するかは、迫りつつも未解明の疑問である。
意外なことに, ニューラルネットワークによる検索モデルでは, LLM生成文書のランクが高くなる傾向が示唆された。
論文 参考訳(メタデータ) (2023-10-31T14:42:23Z) - Explainable Depression Symptom Detection in Social Media [2.677715367737641]
本稿では, トランスフォーマーアーキテクチャを用いて, ユーザの文章中の抑うつ症状マーカーの出現を検知し, 説明する。
我々の自然言語による説明により、臨床医はバリデーションされた症状に基づいてモデルの判断を解釈できる。
論文 参考訳(メタデータ) (2023-10-20T17:05:27Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。