論文の概要: Evidence-Driven Marker Extraction for Social Media Suicide Risk Detection
- arxiv url: http://arxiv.org/abs/2502.18823v1
- Date: Wed, 26 Feb 2025 04:58:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:58:00.045455
- Title: Evidence-Driven Marker Extraction for Social Media Suicide Risk Detection
- Title(参考訳): ソーシャルメディア自殺リスク検出のためのエビデンス駆動マーカー抽出
- Authors: Carter Adams, Caleb Carter, Jackson Simmons,
- Abstract要約: 本稿では,臨床マーカー抽出と自殺リスク分類の新しいアプローチであるEvidence-Driven LLM (ED-LLM)を紹介する。
ED-LLMはマルチタスク学習フレームワークを採用し、Mistral-7Bベースのモデルを共同でトレーニングし、臨床マーカーの範囲を特定し、自殺リスクレベルを分類する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Early detection of suicide risk from social media text is crucial for timely intervention. While Large Language Models (LLMs) offer promising capabilities in this domain, challenges remain in terms of interpretability and computational efficiency. This paper introduces Evidence-Driven LLM (ED-LLM), a novel approach for clinical marker extraction and suicide risk classification. ED-LLM employs a multi-task learning framework, jointly training a Mistral-7B based model to identify clinical marker spans and classify suicide risk levels. This evidence-driven strategy enhances interpretability by explicitly highlighting textual evidence supporting risk assessments. Evaluated on the CLPsych datasets, ED-LLM demonstrates competitive performance in risk classification and superior capability in clinical marker span identification compared to baselines including fine-tuned LLMs, traditional machine learning, and prompt-based methods. The results highlight the effectiveness of multi-task learning for interpretable and efficient LLM-based suicide risk assessment, paving the way for clinically relevant applications.
- Abstract(参考訳): ソーシャルメディアのテキストから自殺リスクを早期に検出することは、タイムリーな介入に不可欠である。
大規模言語モデル(LLM)はこの領域で有望な能力を提供するが、解釈可能性と計算効率の点で課題は残る。
本稿では,臨床マーカー抽出と自殺リスク分類の新しいアプローチであるEvidence-Driven LLM (ED-LLM)を紹介する。
ED-LLMはマルチタスク学習フレームワークを採用し、Mistral-7Bベースのモデルを共同でトレーニングし、臨床マーカーの範囲を特定し、自殺リスクレベルを分類する。
このエビデンス主導の戦略は、リスクアセスメントを支持する文章的エビデンスを明確に強調することにより、解釈可能性を高める。
CLPsychデータセットに基づいて評価され、ED-LLMは、細調整されたLLM、従来の機械学習、プロンプトベースの方法を含むベースラインと比較して、リスク分類における競合性能と臨床マーカーのスパン識別における優れた能力を示す。
その結果, LLMに基づく自殺リスク評価におけるマルチタスク学習の有効性が明らかになり, 臨床応用への道が開けた。
関連論文リスト
- LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - SouLLMate: An Adaptive LLM-Driven System for Advanced Mental Health Support and Assessment, Based on a Systematic Application Survey [9.146311285410631]
メンタルヘルスの問題は個人の日常生活に大きな影響を及ぼすが、多くの人は利用可能なオンラインリソースでも必要な支援を受けていない。
この研究は、最先端のAI技術を通じて、アクセス可能で、スティグマフリーで、パーソナライズされ、リアルタイムなメンタルヘルスサポートを提供することを目的としている。
論文 参考訳(メタデータ) (2024-10-06T17:11:29Z) - Generative LLM Powered Conversational AI Application for Personalized Risk Assessment: A Case Study in COVID-19 [6.367429891237191]
大規模言語モデル(LLM)は、様々な自然言語タスクにおいて顕著な能力を示している。
本研究は,ヒトとAIの会話をストリーミングすることで,LSMを用いた新たな疾病リスク評価手法を示す。
論文 参考訳(メタデータ) (2024-09-23T13:55:13Z) - Understanding the Effectiveness of Coverage Criteria for Large Language Models: A Special Angle from Jailbreak Attacks [10.909463767558023]
大規模言語モデル(LLM)は人工知能に革命をもたらしたが、重要なドメインにまたがるデプロイメントは、悪意のある攻撃に直面した際の異常な振る舞いを懸念している。
本稿では,このような不確実性を特定する上で,従来のカバレッジ基準の有効性を評価するための総合的な実証的研究を行う。
我々は、クエリを正規またはジェイルブレイクとして分類する際の高精度(平均93.61%)を実現するリアルタイムジェイルブレイク検出機構を開発した。
論文 参考訳(メタデータ) (2024-08-27T17:14:21Z) - Unveiling the Misuse Potential of Base Large Language Models via In-Context Learning [61.2224355547598]
大規模言語モデル(LLM)のオープンソース化は、アプリケーション開発、イノベーション、科学的進歩を加速させる。
我々の調査は、この信念に対する重大な監視を露呈している。
我々の研究は、慎重に設計されたデモを配置することにより、ベースLSMが悪意のある命令を効果的に解釈し実行できることを実証する。
論文 参考訳(メタデータ) (2024-04-16T13:22:54Z) - Leveraging Large Language Models to Extract Information on Substance Use Disorder Severity from Clinical Notes: A Zero-shot Learning Approach [3.0962132663521227]
物質利用障害 (SUD) は、健康や社会に有害な影響があるとして大きな懸念を抱いている。
国際疾患分類(ICD-10)のような既存の診断符号化システムは、特定の診断のための粒度を欠いている。
従来の自然言語処理(NLP)手法は、このような多様な臨床言語を正確に解析する際の限界に直面している。
本研究では,臨床ノートから重症度関連情報を抽出するためのLarge Language Models (LLMs) の応用について検討した。
論文 参考訳(メタデータ) (2024-03-18T22:39:03Z) - KIEval: A Knowledge-grounded Interactive Evaluation Framework for Large Language Models [53.84677081899392]
KIEvalは、大規模言語モデルのための知識ベースでインタラクティブな評価フレームワークである。
動的汚染耐性評価を達成するために、LSMを動力とする"インターアクター"の役割を初めて取り入れている。
5つのデータセットにわたる7つのLLMの大規模な実験により、KIEvalの有効性と一般化が検証された。
論文 参考訳(メタデータ) (2024-02-23T01:30:39Z) - Data Poisoning for In-context Learning [49.77204165250528]
In-context Learning (ICL)は、新しいタスクに適応する革新的な能力として認識されている。
本論文は、ICLのデータ中毒に対する感受性の重大な問題について述べる。
ICLの学習メカニズムを活用するために考案された特殊攻撃フレームワークであるICLPoisonを紹介する。
論文 参考訳(メタデータ) (2024-02-03T14:20:20Z) - Improving Multiple Sclerosis Lesion Segmentation Across Clinical Sites:
A Federated Learning Approach with Noise-Resilient Training [75.40980802817349]
深層学習モデルは、自動的にMS病変を分節する約束を示しているが、正確な注釈付きデータの不足は、この分野の進歩を妨げている。
我々は,MS病変の不均衡分布とファジィ境界を考慮したDecoupled Hard Label Correction(DHLC)戦略を導入する。
また,集約型中央モデルを利用したCELC(Centrally Enhanced Label Correction)戦略も導入した。
論文 参考訳(メタデータ) (2023-08-31T00:36:10Z) - Investigating Poor Performance Regions of Black Boxes: LIME-based
Exploration in Sepsis Detection [0.5872014229110214]
本稿では,局部解釈可能なモデル非依存記述(LIME)を活用し,セプシス検出におけるブラックボックス分類モデルの解釈可能な記述を提供する。
誤分類されたインスタンスを分析することで、最適以下のパフォーマンスに寄与する重要な特徴が特定される。
論文 参考訳(メタデータ) (2023-06-21T18:36:15Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。