論文の概要: Suicide Phenotyping from Clinical Notes in Safety-Net Psychiatric Hospital Using Multi-Label Classification with Pre-Trained Language Models
- arxiv url: http://arxiv.org/abs/2409.18878v1
- Date: Fri, 27 Sep 2024 16:13:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-01 08:01:28.128928
- Title: Suicide Phenotyping from Clinical Notes in Safety-Net Psychiatric Hospital Using Multi-Label Classification with Pre-Trained Language Models
- Title(参考訳): プレトレーニング言語モデルを用いたマルチラベル分類を用いた安全ネット精神科病院における自殺診断
- Authors: Zehan Li, Yan Hu, Scott Lane, Salih Selek, Lokesh Shahani, Rodrigo Machado-Vieira, Jair Soares, Hua Xu, Hongfang Liu, Ming Huang,
- Abstract要約: 事前訓練された言語モデルは、非構造的な臨床物語から自殺を識別する約束を提供する。
2つの微調整戦略を用いて4つのBERTモデルの性能評価を行った。
- 参考スコア(独自算出の注目度): 10.384299115679369
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate identification and categorization of suicidal events can yield better suicide precautions, reducing operational burden, and improving care quality in high-acuity psychiatric settings. Pre-trained language models offer promise for identifying suicidality from unstructured clinical narratives. We evaluated the performance of four BERT-based models using two fine-tuning strategies (multiple single-label and single multi-label) for detecting coexisting suicidal events from 500 annotated psychiatric evaluation notes. The notes were labeled for suicidal ideation (SI), suicide attempts (SA), exposure to suicide (ES), and non-suicidal self-injury (NSSI). RoBERTa outperformed other models using binary relevance (acc=0.86, F1=0.78). MentalBERT (F1=0.74) also exceeded BioClinicalBERT (F1=0.72). RoBERTa fine-tuned with a single multi-label classifier further improved performance (acc=0.88, F1=0.81), highlighting that models pre-trained on domain-relevant data and the single multi-label classification strategy enhance efficiency and performance. Keywords: EHR-based Phynotyping; Natural Language Processing; Secondary Use of EHR Data; Suicide Classification; BERT-based Model; Psychiatry; Mental Health
- Abstract(参考訳): 自殺事件の正確な特定と分類は、自殺予防の改善、手術負担の軽減、高明度精神医学的設定におけるケア品質の向上をもたらす。
事前訓練された言語モデルは、非構造的な臨床物語から自殺を識別する約束を提供する。
我々は,500の注釈付き精神評価ノートから自殺行為を検知するための2つの微調整戦略(複数ラベルと単一ラベル)を用いて,BERTに基づく4つのモデルの性能評価を行った。
メモには自殺観念(SI)、自殺未遂(SA)、自殺(ES)、自殺自傷(NSSI)が記載された。
RoBERTaはバイナリ関連性(acc=0.86, F1=0.78)で他のモデルよりも優れていた。
MentalBERT (F1=0.74)もBioClinicalBERT (F1=0.72)を上回った。
単一マルチラベル分類器(acc=0.88, F1=0.81)で微調整されたRoBERTaでは、ドメイン関連データに基づいて事前訓練されたモデルと、単一のマルチラベル分類戦略により効率と性能が向上した。
キーワード: EHRベースのフィノッティピング、自然言語処理、EHRデータの二次的利用、自殺分類、BERTベースのモデル、精神医学、メンタルヘルス
関連論文リスト
- A Comparative Analysis of Transformer and LSTM Models for Detecting Suicidal Ideation on Reddit [0.18416014644193066]
多くの人がRedditのようなソーシャルメディアプラットフォームで自殺的な考えを表明しています。
本稿では, 深層学習変換器モデルBERT, RoBERTa, DistilBERT, ALBERT, ELECTRAの有効性を検討した。
RoBERTaは93.22%、F1スコア93.14%の最も効果的なモデルとして登場した。
論文 参考訳(メタデータ) (2024-11-23T01:17:43Z) - CausalDiff: Causality-Inspired Disentanglement via Diffusion Model for Adversarial Defense [61.78357530675446]
人間は、本質的な要因のみに基づいて判断するので、微妙な操作によって騙されるのは難しい。
この観察に触発されて、本質的なラベル因果因子を用いたラベル生成をモデル化し、ラベル非因果因子を組み込んでデータ生成を支援する。
逆の例では、摂動を非因果因子として識別し、ラベル因果因子のみに基づいて予測することを目的としている。
論文 参考訳(メタデータ) (2024-10-30T15:06:44Z) - Leveraging Large Language Models for Suicide Detection on Social Media with Limited Labels [3.1399304968349186]
本稿では,テキストベースのソーシャルメディア投稿における自殺的内容を自動的に検出するLarge Language Models (LLMs) について検討する。
我々は,Qwen2-72B-インストラクションの促進とLlama3-8B,Llama3.1-8B,Gemma2-9Bなどの微調整モデルを用いたアンサンブルアプローチを開発した。
実験の結果,アンサンブルモデルでは個々のモデルと比較して5%の精度で検出精度が向上した。
論文 参考訳(メタデータ) (2024-10-06T14:45:01Z) - Using Pre-training and Interaction Modeling for ancestry-specific disease prediction in UK Biobank [69.90493129893112]
近年のゲノムワイド・アソシエーション(GWAS)研究は、複雑な形質の遺伝的基盤を明らかにしているが、非ヨーロッパ系個体の低発現を示している。
そこで本研究では,マルチオミクスデータを用いて,多様な祖先間での疾患予測を改善することができるかを評価する。
論文 参考訳(メタデータ) (2024-04-26T16:39:50Z) - SOS-1K: A Fine-grained Suicide Risk Classification Dataset for Chinese Social Media Analysis [22.709733830774788]
本研究では,自殺リスクの詳細な分類を目的とした,中国のソーシャルメディアデータセットを提案する。
事前訓練した7つのモデルについて, 自殺リスクが高い, 自殺リスクが少ない, 自殺リスクの細かい分類が0~10の2つのタスクで評価された。
ディープラーニングモデルは高い自殺リスクと低い自殺リスクを区別する上で優れた性能を示し、最良のモデルはF1スコア88.39%である。
論文 参考訳(メタデータ) (2024-04-19T06:58:51Z) - Non-Invasive Suicide Risk Prediction Through Speech Analysis [74.8396086718266]
自動自殺リスク評価のための非侵襲的音声ベースアプローチを提案する。
我々は、wav2vec、解釈可能な音声・音響特徴、深層学習に基づくスペクトル表現の3つの特徴セットを抽出する。
我々の最も効果的な音声モデルは、6.6.2,%$のバランスの取れた精度を達成する。
論文 参考訳(メタデータ) (2024-04-18T12:33:57Z) - Automatically measuring speech fluency in people with aphasia: first
achievements using read-speech data [55.84746218227712]
本研究の目的は,言語習得の分野で開発された信号処理algorithmの関連性を評価することである。
論文 参考訳(メタデータ) (2023-08-09T07:51:40Z) - Learning to diagnose cirrhosis from radiological and histological labels
with joint self and weakly-supervised pretraining strategies [62.840338941861134]
そこで本稿では, 放射線学者が注釈付けした大規模データセットからの転写学習を活用して, 小さい付加データセットで利用できる組織学的スコアを予測することを提案する。
我々は,肝硬変の予測を改善するために,異なる事前訓練法,すなわち弱い指導法と自己指導法を比較した。
この方法は、METAVIRスコアのベースライン分類を上回り、AUCが0.84、バランスの取れた精度が0.75に達する。
論文 参考訳(メタデータ) (2023-02-16T17:06:23Z) - Automated speech- and text-based classification of neuropsychiatric
conditions in a multidiagnostic setting [2.0972270756982536]
音声パターンは神経精神疾患の診断マーカーとして認識されている。
我々は,機械学習モデルと高度なトランスフォーマーモデルの性能を,二進分類と多進分類の両方で検証した。
以上の結果から,二項分類で訓練したモデルは,臨床と非臨床の集団間の一般的な差異のマーカーに依存することが示唆された。
論文 参考訳(メタデータ) (2023-01-13T08:24:21Z) - Leveraging Contextual Relatedness to Identify Suicide Documentation in
Clinical Notes through Zero Shot Learning [8.57098973963918]
本稿では,ゼロショット学習を通じて,このデータ空間の問題に対処することにより,臨床ノートの自殺を識別する新しい手法について述べる。
深層ニューラルネットワークは、トレーニング文書の内容を意味空間にマッピングすることで訓練された。
この手法は0.90の確率閾値を適用し、自殺を記録したICD 10 CMコードと関係のないメモを94%の精度で特定した。
論文 参考訳(メタデータ) (2023-01-09T17:26:07Z) - SCRIB: Set-classifier with Class-specific Risk Bounds for Blackbox
Models [48.374678491735665]
クラス固有RIsk境界(SCRIB)を用いたSet-classifierを導入し,この問題に対処する。
SCRIBは、クラス固有の予測リスクを理論的保証で制御するセット分類器を構築する。
脳波(EEG)データによる睡眠ステージング,X線COVID画像分類,心電図(ECG)データに基づく心房細動検出など,いくつかの医学的応用についてSCRIBを検証した。
論文 参考訳(メタデータ) (2021-03-05T21:06:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。