論文の概要: Supporting Intervention Design for Suicide Prevention with Language Model Assistants
- arxiv url: http://arxiv.org/abs/2508.18541v1
- Date: Mon, 25 Aug 2025 22:30:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.617897
- Title: Supporting Intervention Design for Suicide Prevention with Language Model Assistants
- Title(参考訳): 言語モデルアシスタントを用いた自殺防止のための介入設計支援
- Authors: Jaspreet Ranjit, Hyundong J. Cho, Claire J. Smerdon, Yoonsoo Nam, Myles Phung, Jonathan May, John R. Blosnich, Swabha Swayamdipta,
- Abstract要約: 我々は,データアノテータや専門家の効率的なアシスタントとして,言語モデル(LM)の価値を検討する。
LM予測は50NVDRS変数の約85%の時間で既存のデータアノテーションと一致していることがわかった。
我々は,新しい変数を注釈付けするためのガイドラインを,専門家が効率的に構築し,精錬するのを支援するために,Human-in-the-loopアルゴリズムを導入する。
- 参考スコア(独自算出の注目度): 29.817116812169132
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Warning: This paper discusses topics of suicide and suicidal ideation, which may be distressing to some readers. The National Violent Death Reporting System (NVDRS) documents information about suicides in the United States, including free text narratives (e.g., circumstances surrounding a suicide). In a demanding public health data pipeline, annotators manually extract structured information from death investigation records following extensive guidelines developed painstakingly by experts. In this work, we facilitate data-driven insights from the NVDRS data to support the development of novel suicide interventions by investigating the value of language models (LMs) as efficient assistants to these (a) data annotators and (b) experts. We find that LM predictions match existing data annotations about 85% of the time across 50 NVDRS variables. In the cases where the LM disagrees with existing annotations, expert review reveals that LM assistants can surface annotation discrepancies 38% of the time. Finally, we introduce a human-in-the-loop algorithm to assist experts in efficiently building and refining guidelines for annotating new variables by allowing them to focus only on providing feedback for incorrect LM predictions. We apply our algorithm to a real-world case study for a new variable that characterizes victim interactions with lawyers and demonstrate that it achieves comparable annotation quality with a laborious manual approach. Our findings provide evidence that LMs can serve as effective assistants to public health researchers who handle sensitive data in high-stakes scenarios.
- Abstract(参考訳): 警告:本論文では,自殺と自殺の考えについて論じる。
国立暴力死亡報告システム(National Violent Death Reporting System, NVDRS)は、米国における自殺に関する情報を公開している。
必要な公衆衛生データパイプラインでは、アノテータが専門家が苦しむようなガイドラインを策定した後、死亡調査記録から構造化情報を手作業で抽出する。
本研究は,NVDRSデータからのデータ駆動的洞察を助長し,言語モデル(LM)の価値を効果的に支援することによる,新たな自殺介入の開発を支援するものである。
(a)データアノテータおよび
(b)専門家。
LM予測は50NVDRS変数の約85%の時間で既存のデータアノテーションと一致していることがわかった。
LMが既存のアノテーションに同意しない場合、専門家のレビューは、LMアシスタントが38%の時間でアノテーションの相違を表面化できることを明らかにしている。
最後に,新しい変数を注釈付けするためのガイドラインを効率よく構築し,修正する上で,不正確なLM予測に対するフィードバックのみに焦点をあてることによって,専門家を支援する。
我々は,弁護士との被害者のインタラクションを特徴付ける新しい変数を実世界のケーススタディに適用し,手作業によるアプローチと同等のアノテーション品質を達成できることを実証する。
以上の結果から,LMは高リスクシナリオにおける機密データを扱う公衆衛生研究者の効果的なアシスタントとして機能する可能性が示唆された。
関連論文リスト
- Rethinking Suicidal Ideation Detection: A Trustworthy Annotation Framework and Cross-Lingual Model Evaluation [0.0]
適切な思考検出は、リアルタイムの自殺予防には不可欠だが、その進歩は2つの未解決課題に直面している。
ほとんどのデータセットは英語で書かれているが、その中でも高品質で人間による注釈付きデータはほとんど残っていない。
論文 参考訳(メタデータ) (2025-07-19T16:54:36Z) - Usefulness of LLMs as an Author Checklist Assistant for Scientific Papers: NeurIPS'24 Experiment [59.09144776166979]
大規模言語モデル(LLM)は、科学的ピアレビューを支援する上で有望だが議論の余地のあるツールである。
本研究は,論文提出を提出基準に適合させるツールとして,会議環境におけるLCMの有用性を評価する。
論文 参考訳(メタデータ) (2024-11-05T18:58:00Z) - Non-Invasive Suicide Risk Prediction Through Speech Analysis [74.8396086718266]
自動自殺リスク評価のための非侵襲的音声ベースアプローチを提案する。
我々は、wav2vec、解釈可能な音声・音響特徴、深層学習に基づくスペクトル表現の3つの特徴セットを抽出する。
我々の最も効果的な音声モデルは、6.6.2,%$のバランスの取れた精度を達成する。
論文 参考訳(メタデータ) (2024-04-18T12:33:57Z) - Uncovering Misattributed Suicide Causes through Annotation Inconsistency Detection in Death Investigation Notes [21.374488755816092]
NVDRS(National Violent Death Reporting System)のデータは、死のパターンや原因を発見するために広く利用されている。
最近の研究では、NVDRS内のアノテーションの不整合と誤った自殺原因の帰属に対する潜在的影響が示唆されている。
本稿では,アノテーションの不整合を検知し,問題のあるインスタンスを識別するクロスバリデーションのようなパラダイムを採用する,経験的自然言語処理(NLP)アプローチを提案する。
論文 参考訳(メタデータ) (2024-03-28T14:03:12Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。