論文の概要: Language-Agnostic Suicidal Risk Detection Using Large Language Models
- arxiv url: http://arxiv.org/abs/2505.20109v1
- Date: Mon, 26 May 2025 15:12:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.554446
- Title: Language-Agnostic Suicidal Risk Detection Using Large Language Models
- Title(参考訳): 大規模言語モデルを用いた言語に依存しない適切なリスク検出
- Authors: June-Woo Kim, Wonkyo Oh, Haram Yoon, Sung-Hoon Yoon, Dae-Jin Kim, Dong-Ho Lee, Sang-Yeol Lee, Chan-Mo Yang,
- Abstract要約: 本研究では,大規模言語モデル(LLM)を用いた自殺リスク評価のための新しい言語非依存フレームワークを提案する。
ASRモデルを用いて音声から中国語の書き起こしを生成し、その後、これらの書き起こしから自殺リスクに関連する特徴を抽出するために、プロンプトベースのクエリを用いたLLMを用いる。
実験結果から,ASRによる直接微調整や,中国の自殺リスク関連機能のみを訓練したモデルに比較して,本手法の有効性が示唆された。
- 参考スコア(独自算出の注目度): 9.90722058486037
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Suicidal risk detection in adolescents is a critical challenge, yet existing methods rely on language-specific models, limiting scalability and generalization. This study introduces a novel language-agnostic framework for suicidal risk assessment with large language models (LLMs). We generate Chinese transcripts from speech using an ASR model and then employ LLMs with prompt-based queries to extract suicidal risk-related features from these transcripts. The extracted features are retained in both Chinese and English to enable cross-linguistic analysis and then used to fine-tune corresponding pretrained language models independently. Experimental results show that our method achieves performance comparable to direct fine-tuning with ASR results or to models trained solely on Chinese suicidal risk-related features, demonstrating its potential to overcome language constraints and improve the robustness of suicidal risk assessment.
- Abstract(参考訳): 青年期における適切なリスク検出は重要な課題であるが、既存の手法は言語固有のモデルに依存し、スケーラビリティと一般化を制限している。
本研究では,大規模言語モデル(LLM)を用いた自殺リスク評価のための新しい言語非依存フレームワークを提案する。
ASRモデルを用いて音声から中国語の書き起こしを生成し、その後、これらの書き起こしから自殺リスクに関連する特徴を抽出するために、プロンプトベースのクエリを用いたLLMを用いる。
抽出された特徴は中国語と英語の両方で保持され、言語横断分析が可能となり、それに応じて訓練済み言語モデルを独立に微調整するために使用される。
実験の結果,ASRによる直接微調整や,中国における自殺リスク関連の特徴のみを訓練したモデルに匹敵する性能を示し,言語制約を克服し,自殺リスク評価の堅牢性を向上させる可能性を示した。
関連論文リスト
- Spontaneous Speech-Based Suicide Risk Detection Using Whisper and Large Language Models [5.820498448651539]
本稿では,青年期における自発音声による自殺リスクの自動検出について検討する。
提案システムでは,被験者119名を対象に,検出精度0.807とF1スコア0.846を実現する。
論文 参考訳(メタデータ) (2024-06-06T09:21:13Z) - Integrating Supervised Extractive and Generative Language Models for Suicide Risk Evidence Summarization [2.0969143947138016]
本稿では,自殺リスクの証拠を提供するために,教師付き抽出言語モデルと生成言語モデルを統合する手法を提案する。
まず,文レベル自殺リスクと負の感情を推定するためのBERTモデルを構築した。
次に,自殺リスクと負の感情の両方の高い確率を強調することで,高い自殺リスクの文を正確に同定する。
最後に,MentaLLaMaフレームワークを用いた生成要約と,特定された自殺リスク文からの抽出要約と,自殺リスク単語の専門辞書を統合した。
論文 参考訳(メタデータ) (2024-03-20T21:16:10Z) - DPP-Based Adversarial Prompt Searching for Lanugage Models [56.73828162194457]
Auto-Regressive Selective Replacement Ascent (ASRA)は、決定点プロセス(DPP)と品質と類似性の両方に基づいてプロンプトを選択する離散最適化アルゴリズムである。
6種類の事前学習言語モデルに対する実験結果から,ASRAによる有害成分の抽出の有効性が示された。
論文 参考訳(メタデータ) (2024-03-01T05:28:06Z) - A Chinese Dataset for Evaluating the Safeguards in Large Language Models [46.43476815725323]
大型言語モデル(LLM)は有害な応答を生み出す。
本稿では,中国のLLMの安全性評価のためのデータセットを提案する。
次に、偽陰性例と偽陽性例をよりよく識別するために使用できる他の2つのシナリオに拡張する。
論文 参考訳(メタデータ) (2024-02-19T14:56:18Z) - Gaining Wisdom from Setbacks: Aligning Large Language Models via Mistake
Analysis [127.85293480405082]
大規模言語モデル(LLM)の急速な開発は、多くの機会を提供するだけでなく、重要な課題も提示している。
既存のアライメント手法は、人間による注釈付き、欠陥のない命令応答ペアを利用することで、LLMを好ましい結果に導くのが一般的である。
本研究は誤り解析に基づく新しいアライメント手法を提案する。ミスの原因と回避方法を学習するために,LLMを誤った内容に故意に公開する手法である。
論文 参考訳(メタデータ) (2023-10-16T14:59:10Z) - Multilingual Jailbreak Challenges in Large Language Models [96.74878032417054]
本研究では,大規模言語モデル(LLM)における多言語ジェイルブレイク問題の存在を明らかにする。
我々は、意図しないシナリオと意図的なシナリオの2つを考えます。
安全な微調整のための多言語学習データを自動的に生成する新しいtextscSelf-Defense フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-10T09:44:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。