論文の概要: Detecting Suicide Risk in Online Counseling Services: A Study in a
Low-Resource Language
- arxiv url: http://arxiv.org/abs/2209.04830v1
- Date: Sun, 11 Sep 2022 10:06:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 12:55:16.873683
- Title: Detecting Suicide Risk in Online Counseling Services: A Study in a
Low-Resource Language
- Title(参考訳): オンラインカウンセリングサービスにおける自殺リスクの検出:低リソース言語による検討
- Authors: Amir Bialer and Daniel Izmaylov and Avi Segal and Oren Tsur and Yossi
Levi-Belz and Kobi Gal
- Abstract要約: 本稿では,PLM(Pre-trained Language Model)と手作業による自殺的手がかりの固定セットを組み合わせたモデルを提案する。
我々のモデルは0.91ROC-AUCと0.55のF2スコアを達成し、会話の早い段階でも強いベースラインをはるかに上回っている。
- 参考スコア(独自算出の注目度): 5.2636083103718505
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the increased awareness of situations of mental crisis and their
societal impact, online services providing emergency support are becoming
commonplace in many countries. Computational models, trained on discussions
between help-seekers and providers, can support suicide prevention by
identifying at-risk individuals. However, the lack of domain-specific models,
especially in low-resource languages, poses a significant challenge for the
automatic detection of suicide risk. We propose a model that combines
pre-trained language models (PLM) with a fixed set of manually crafted (and
clinically approved) set of suicidal cues, followed by a two-stage fine-tuning
process. Our model achieves 0.91 ROC-AUC and an F2-score of 0.55, significantly
outperforming an array of strong baselines even early on in the conversation,
which is critical for real-time detection in the field. Moreover, the model
performs well across genders and age groups.
- Abstract(参考訳): 精神危機の状況と社会的影響に対する認識が高まり、多くの国で緊急支援を提供するオンラインサービスが一般的になっている。
支援者と提供者の間の議論に基づいて訓練された計算モデルは、リスクの高い個人を特定することで自殺予防を支援することができる。
しかし、特に低リソース言語におけるドメイン固有モデルの欠如は、自殺リスクを自動的に検出する上で大きな課題となる。
本稿では,PLM(Pre-trained Language Model)と手作業による自殺手順の定式化(および臨床承認)とを組み合わせ,次いで2段階の微調整プロセスを提案する。
我々のモデルは0.91ROC-AUCと0.55のF2スコアを達成し、会話の早い段階でも強いベースラインの配列を著しく上回り、フィールドでのリアルタイム検出に欠かせない。
さらに、このモデルは性別と年齢グループでうまく機能する。
関連論文リスト
- Deep Learning and Large Language Models for Audio and Text Analysis in Predicting Suicidal Acts in Chinese Psychological Support Hotlines [13.59130559079134]
中国では毎年200万人が自殺を企てており、多くの人が複数の試みをしている。
深層学習モデルと大規模言語モデル(LLM)がメンタルヘルスの分野に導入されている。
本研究は、1284名の被験者を対象とし、ディープラーニングモデルとLLMが、ホットラインからの音声および転写テキストを用いて、自殺リスクを効果的に予測できるかどうかを検証するように設計された。
論文 参考訳(メタデータ) (2024-09-10T02:22:50Z) - Exploring Gender-Specific Speech Patterns in Automatic Suicide Risk Assessment [39.26231968260796]
本研究は、中性テキストを読む20人の患者の音声記録を含む新しいデータセットに関するものである。
解釈可能な特徴と深い特徴を含む4つの音声表現を抽出する。
性別排他モデルを適用することにより、感情の微調整wav2vec2.0モデルから抽出した特徴を利用して、低自殺リスクから高リスクを81%の精度で識別することができる。
論文 参考訳(メタデータ) (2024-06-26T12:51:28Z) - Spontaneous Speech-Based Suicide Risk Detection Using Whisper and Large Language Models [5.820498448651539]
本稿では,青年期における自発音声による自殺リスクの自動検出について検討する。
提案システムでは,被験者119名を対象に,検出精度0.807とF1スコア0.846を実現する。
論文 参考訳(メタデータ) (2024-06-06T09:21:13Z) - SOS-1K: A Fine-grained Suicide Risk Classification Dataset for Chinese Social Media Analysis [22.709733830774788]
本研究では,自殺リスクの詳細な分類を目的とした,中国のソーシャルメディアデータセットを提案する。
事前訓練した7つのモデルについて, 自殺リスクが高い, 自殺リスクが少ない, 自殺リスクの細かい分類が0~10の2つのタスクで評価された。
ディープラーニングモデルは高い自殺リスクと低い自殺リスクを区別する上で優れた性能を示し、最良のモデルはF1スコア88.39%である。
論文 参考訳(メタデータ) (2024-04-19T06:58:51Z) - Non-Invasive Suicide Risk Prediction Through Speech Analysis [74.8396086718266]
自動自殺リスク評価のための非侵襲的音声ベースアプローチを提案する。
我々は、wav2vec、解釈可能な音声・音響特徴、深層学習に基づくスペクトル表現の3つの特徴セットを抽出する。
我々の最も効果的な音声モデルは、6.6.2,%$のバランスの取れた精度を達成する。
論文 参考訳(メタデータ) (2024-04-18T12:33:57Z) - DPP-Based Adversarial Prompt Searching for Lanugage Models [56.73828162194457]
Auto-Regressive Selective Replacement Ascent (ASRA)は、決定点プロセス(DPP)と品質と類似性の両方に基づいてプロンプトを選択する離散最適化アルゴリズムである。
6種類の事前学習言語モデルに対する実験結果から,ASRAによる有害成分の抽出の有効性が示された。
論文 参考訳(メタデータ) (2024-03-01T05:28:06Z) - Locally Differentially Private Document Generation Using Zero Shot
Prompting [61.20953109732442]
本稿では,DP-Prompt と呼ばれる局所的に異なるプライベートなメカニズムを提案し,作者の匿名化攻撃に対処する。
DP-PromptをChatGPT(gpt-3.5)のような強力な言語モデルで使用すると、匿名化攻撃の成功率の顕著な低下が観察される。
論文 参考訳(メタデータ) (2023-10-24T18:25:13Z) - LaMDA: Language Models for Dialog Applications [75.75051929981933]
LaMDAは、ダイアログに特化したトランスフォーマーベースのニューラルネットワークモデルのファミリーである。
注釈付きデータで微調整し、モデルが外部の知識ソースを参照できるようにすると、大幅な改善がもたらされる。
論文 参考訳(メタデータ) (2022-01-20T15:44:37Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Joint Contextual Modeling for ASR Correction and Language Understanding [60.230013453699975]
言語理解(LU)と協調してASR出力の文脈的言語補正を行うマルチタスクニューラルアプローチを提案する。
そこで本研究では,市販のASRおよびLUシステムの誤差率を,少量のドメイン内データを用いてトレーニングしたジョイントモデルと比較して14%削減できることを示した。
論文 参考訳(メタデータ) (2020-01-28T22:09:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。