論文の概要: Two-Stage Voting for Robust and Efficient Suicide Risk Detection on Social Media
- arxiv url: http://arxiv.org/abs/2510.08365v1
- Date: Thu, 09 Oct 2025 15:51:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.173106
- Title: Two-Stage Voting for Robust and Efficient Suicide Risk Detection on Social Media
- Title(参考訳): ソーシャルメディア上でのロバストかつ効率的な自殺リスク検出のための2段階投票
- Authors: Yukai Song, Pengfei Zhou, César Escobar-Viera, Candice Biernesser, Wei Huang, Jingtong Hu,
- Abstract要約: 近年は世界中で自殺率が上昇しており、予防策の緊急的必要性が浮き彫りになっている。
ソーシャルメディアは、多くのリスクのある個人がオンラインで苦悩を共有するために、貴重な信号を提供する。
しかし、比喩、皮肉、微妙な感情的な手がかりを通じて間接的に伝えられる暗黙の自殺観念を検出することは、依然として非常に困難である。
効率性とロバスト性のバランスをとる2段階の投票アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 10.052850525975025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Suicide rates have risen worldwide in recent years, underscoring the urgent need for proactive prevention strategies. Social media provides valuable signals, as many at-risk individuals - who often avoid formal help due to stigma - choose instead to share their distress online. Yet detecting implicit suicidal ideation, conveyed indirectly through metaphor, sarcasm, or subtle emotional cues, remains highly challenging. Lightweight models like BERT handle explicit signals but fail on subtle implicit ones, while large language models (LLMs) capture nuance at prohibitive computational cost. To address this gap, we propose a two-stage voting architecture that balances efficiency and robustness. In Stage 1, a lightweight BERT classifier rapidly resolves high-confidence explicit cases. In Stage 2, ambiguous inputs are escalated to either (i) a multi-perspective LLM voting framework to maximize recall on implicit ideation, or (ii) a feature-based ML ensemble guided by psychologically grounded indicators extracted via prompt-engineered LLMs for efficiency and interpretability. To the best of our knowledge, this is among the first works to operationalize LLM-extracted psychological features as structured vectors for suicide risk detection. On two complementary datasets - explicit-dominant Reddit and implicit-only DeepSuiMind - our framework outperforms single-model baselines, achieving 98.0% F1 on explicit cases, 99.7% on implicit ones, and reducing the cross-domain gap below 2%, while significantly lowering LLM cost.
- Abstract(参考訳): 近年は世界中で自殺率が上昇しており、予防策の緊急的必要性が浮き彫りになっている。
ソーシャルメディアは、多くのリスクの高い個人 ― 汚職のために正式な支援を避けている ― が、代わりにオンラインで苦悩を共有することを選択している。
しかし、比喩、皮肉、微妙な感情的な手がかりを通じて間接的に伝えられる暗黙の自殺観念を検出することは、依然として非常に困難である。
BERTのような軽量モデルは明示的な信号を処理するが、微妙な暗黙の信号では失敗する。
このギャップに対処するために,効率性とロバスト性のバランスをとる2段階の投票アーキテクチャを提案する。
ステージ1では、軽量BERT分類器は、高信頼な明示的なケースを迅速に解決する。
ステージ2では曖昧な入力がエスカレートされる。
(i)暗黙の考えに基づくリコールを最大化する多視点LLM投票フレームワーク、又は
(II) 能率と解釈性のために, プロンプト工学的LLMを用いて抽出した心理的根拠付き指標を用いて, 特徴に基づくMLアンサンブルを指導した。
我々の知る限り、これはLSM抽出された心理的特徴を自殺リスク検出のための構造化ベクトルとして運用する最初の試みの1つである。
明示的なRedditと暗黙的なDeepSuiMindという2つの補完的なデータセットでは、当社のフレームワークはシングルモデルベースラインを上回り、明示的なケースでは98.0% F1、暗黙的なデータセットでは99.7%、クロスギャップギャップを2%以下に削減し、LCMコストを大幅に削減しています。
関連論文リスト
- Can Large Language Models Express Uncertainty Like Human? [71.27418419522884]
我々は,人間に注釈を付けた信頼スコアを持つヘッジ式の最初の多種多様な大規模データセットをリリースする。
現代大言語モデルにまたがる言語信頼に関する最初の体系的研究を行う。
論文 参考訳(メタデータ) (2025-09-29T02:34:30Z) - Harmful Prompt Laundering: Jailbreaking LLMs with Abductive Styles and Symbolic Encoding [19.92751862281067]
大きな言語モデル(LLM)は、様々なタスクにまたがる顕著な能力を示しているが、有害な目的に対する潜在的な誤用は、依然として重大な懸念である。
textbfHarmful textbfPrompt textbfLaundering (HaPLa)を提案する。
論文 参考訳(メタデータ) (2025-09-13T18:07:56Z) - Beyond Prompt-Induced Lies: Investigating LLM Deception on Benign Prompts [79.1081247754018]
大規模言語モデル(LLM)は、推論、計画、意思決定のタスクに広くデプロイされている。
そこで我々は, 接触探索質問(CSQ)に基づく枠組みを提案し, 騙しの可能性を定量化する。
論文 参考訳(メタデータ) (2025-08-08T14:46:35Z) - Explicit Vulnerability Generation with LLMs: An Investigation Beyond Adversarial Attacks [0.5218155982819203]
大規模言語モデル(LLM)は、コードアシスタントとしてますます使われている。
本研究は、より直接的な脅威について検討する。オープンソースのLLMは、トリガー時に脆弱性のあるコードを生成する。
論文 参考訳(メタデータ) (2025-07-14T08:36:26Z) - Federated Learning-Enabled Hybrid Language Models for Communication-Efficient Token Transmission [87.68447072141402]
ハイブリッド言語モデル(HLM)は、エッジデバイス上でのSLM(Small Language Model)の低レイテンシ効率と、集中型サーバ上でのLLM(Large Language Model)の高精度を組み合わせたものである。
我々は、不確実性を考慮した推論とフェデレートラーニング(FL)を統合する通信効率の高いHLMフレームワークであるFedHLMを提案する。
論文 参考訳(メタデータ) (2025-06-30T02:56:11Z) - Revisiting Backdoor Attacks on LLMs: A Stealthy and Practical Poisoning Framework via Harmless Inputs [54.90315421117162]
完全無害データを用いた新しい毒殺法を提案する。
自己回帰型LPMの因果推論に着想を得て,トリガーと肯定的応答プレフィックスの堅牢な関連性を確立することを目指す。
LLMは最初は同意するように見えるが,その後回答を拒む興味深い抵抗現象を観察する。
論文 参考訳(メタデータ) (2025-05-23T08:13:59Z) - FFN-SkipLLM: A Hidden Gem for Autoregressive Decoding with Adaptive Feed Forward Skipping [49.66872823080736]
自己回帰型大規模言語モデル(LLaMa, GPT)は、言語理解と生成において顕著な成功を収めている。
発生時に発生する過負荷を軽減するため、いくつかの早期退避および層下降戦略が提案されている。
本稿では,入力適応型フィードフォワードスキップ戦略であるFFN-SkipLLMを提案する。
論文 参考訳(メタデータ) (2024-04-05T02:35:43Z) - Chain of Evidences and Evidence to Generate: Prompting for Context Grounded and Retrieval Augmented Reasoning [3.117335706912261]
チェイン・オブ・エビデンス(CoE)とエビデンス・トゥ・ジェネレーション(E2G)は2つのユニークな戦略に基づいて構築されている。
根拠のない推論の主張の代わりに、我々の革新的なアプローチは「意思決定の証拠」の力を利用する。
我々のフレームワークは、様々な知識集約的推論および生成タスクにおいて、常に顕著な結果を達成する。
論文 参考訳(メタデータ) (2024-01-11T09:49:15Z) - Supervised Learning and Large Language Model Benchmarks on Mental Health Datasets: Cognitive Distortions and Suicidal Risks in Chinese Social Media [23.49883142003182]
中国のソーシャルメディアから,自殺リスク分類のためのSOS-HL-1Kと,認知歪み検出のためのSocialCD-3Kの2つの新しいデータセットを紹介した。
本稿では,2つの教師付き学習手法と8つの大規模言語モデル(LLM)を用いた総合的な評価を提案する。
論文 参考訳(メタデータ) (2023-09-07T08:50:46Z) - Can LLMs Express Their Uncertainty? An Empirical Evaluation of Confidence Elicitation in LLMs [60.61002524947733]
従来の信頼性推論手法は、内部モデル情報やモデル微調整へのホワイトボックスアクセスに依存していた。
これにより、不確実性推定のためのブラックボックスアプローチの未解決領域を探索する必要性が高まっている。
言語的信頼を導き出すための戦略の推進、複数の応答を生成するためのサンプリング方法、一貫性を計算するための集約手法の3つの要素からなる体系的フレームワークを定義する。
論文 参考訳(メタデータ) (2023-06-22T17:31:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。