論文の概要: Harmful Suicide Content Detection
- arxiv url: http://arxiv.org/abs/2407.13942v1
- Date: Mon, 3 Jun 2024 03:43:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-05 01:55:24.442523
- Title: Harmful Suicide Content Detection
- Title(参考訳): 有害自殺検出
- Authors: Kyumin Park, Myung Jae Baik, YeongJun Hwang, Yen Shin, HoJae Lee, Ruda Lee, Sang Min Lee, Je Young Hannah Sun, Ah Rah Lee, Si Yeun Yoon, Dong-ho Lee, Jihyung Moon, JinYeong Bak, Kyunghyun Cho, Jong-Woo Paik, Sungjoon Park,
- Abstract要約: 本研究では,オンライン自殺内容の有害なレベルを5つに分類するための有害な自殺内容検出タスクを導入する。
コントリビューションには,新たな検出タスクの提案,専門家アノテーションを用いたマルチモーダル韓国ベンチマーク,違法かつ有害なコンテンツの検出にLLMを用いた戦略の提案などが含まれている。
- 参考スコア(独自算出の注目度): 35.0823928978658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Harmful suicide content on the Internet is a significant risk factor inducing suicidal thoughts and behaviors among vulnerable populations. Despite global efforts, existing resources are insufficient, specifically in high-risk regions like the Republic of Korea. Current research mainly focuses on understanding negative effects of such content or suicide risk in individuals, rather than on automatically detecting the harmfulness of content. To fill this gap, we introduce a harmful suicide content detection task for classifying online suicide content into five harmfulness levels. We develop a multi-modal benchmark and a task description document in collaboration with medical professionals, and leverage large language models (LLMs) to explore efficient methods for moderating such content. Our contributions include proposing a novel detection task, a multi-modal Korean benchmark with expert annotations, and suggesting strategies using LLMs to detect illegal and harmful content. Owing to the potential harm involved, we publicize our implementations and benchmark, incorporating an ethical verification process.
- Abstract(参考訳): インターネット上の有害な自殺コンテンツは、脆弱な人口の自殺的思考や行動を引き起こす重要な危険因子である。
世界的努力にもかかわらず、既存の資源、特に大韓民国のような高リスク地域では不足している。
現在の研究は、内容の有害性を自動的に検出するのではなく、個人におけるそのような内容や自殺リスクのネガティブな影響を理解することに焦点を当てている。
このギャップを埋めるために、オンライン自殺コンテンツを5つの有害レベルに分類する有害自殺コンテンツ検出タスクを導入する。
我々は,医療専門家と共同でマルチモーダル・ベンチマークとタスク記述文書を開発し,大規模言語モデル(LLM)を活用して,そのようなコンテンツをモデレートするための効率的な手法を探索する。
コントリビューションには,新たな検出タスクの提案,専門家アノテーションを用いたマルチモーダル韓国ベンチマーク,違法かつ有害なコンテンツの検出にLLMを用いた戦略の提案などが含まれている。
潜在的な害が伴うため、倫理的検証プロセスを導入し、実装とベンチマークを公表します。
関連論文リスト
- Towards Probing Speech-Specific Risks in Large Multimodal Models: A Taxonomy, Benchmark, and Insights [50.89022445197919]
本研究は,8つのリスクカテゴリーを敵意(悪意的皮肉と脅し),悪意的模倣(年齢,性別,民族),ステレオタイプ的バイアス(年齢,性別,民族)を対象とする音声特異的リスク分類法を提案する。
分類に基づいて,これらのリスクのカテゴリを検出するために,現在のLMM能力を評価するための小規模データセットを作成する。
論文 参考訳(メタデータ) (2024-06-25T10:08:45Z) - SOS-1K: A Fine-grained Suicide Risk Classification Dataset for Chinese Social Media Analysis [22.709733830774788]
本研究では,自殺リスクの詳細な分類を目的とした,中国のソーシャルメディアデータセットを提案する。
事前訓練した7つのモデルについて, 自殺リスクが高い, 自殺リスクが少ない, 自殺リスクの細かい分類が0~10の2つのタスクで評価された。
ディープラーニングモデルは高い自殺リスクと低い自殺リスクを区別する上で優れた性能を示し、最良のモデルはF1スコア88.39%である。
論文 参考訳(メタデータ) (2024-04-19T06:58:51Z) - Integrating Supervised Extractive and Generative Language Models for Suicide Risk Evidence Summarization [2.0969143947138016]
本稿では,自殺リスクの証拠を提供するために,教師付き抽出言語モデルと生成言語モデルを統合する手法を提案する。
まず,文レベル自殺リスクと負の感情を推定するためのBERTモデルを構築した。
次に,自殺リスクと負の感情の両方の高い確率を強調することで,高い自殺リスクの文を正確に同定する。
最後に,MentaLLaMaフレームワークを用いた生成要約と,特定された自殺リスク文からの抽出要約と,自殺リスク単語の専門辞書を統合した。
論文 参考訳(メタデータ) (2024-03-20T21:16:10Z) - Navigating the OverKill in Large Language Models [84.62340510027042]
モデルがどのように処理し,クエリの安全性を判断するかを検討することで,過剰スキルの要因について検討する。
以上の結果から,モデル内にショートカットが存在することが明らかとなり,"キル"のような有害な単語が過剰に認識され,安全性が強調され,過度なスキルが増すことが示唆された。
我々は、この現象を緩和するために、トレーニングフリーでモデルに依存しないセルフコントラストデコーディング(Self-Contrastive Decoding、CD)を導入する。
論文 参考訳(メタデータ) (2024-01-31T07:26:47Z) - Multilingual Jailbreak Challenges in Large Language Models [96.74878032417054]
本研究では,大規模言語モデル(LLM)における多言語ジェイルブレイク問題の存在を明らかにする。
我々は、意図しないシナリオと意図的なシナリオの2つを考えます。
安全な微調整のための多言語学習データを自動的に生成する新しいtextscSelf-Defense フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-10T09:44:06Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z) - Am I No Good? Towards Detecting Perceived Burdensomeness and Thwarted
Belongingness from Suicide Notes [51.378225388679425]
本稿では,自殺ノートから知覚的バーデンサムネス(PB)とThwarted Belongingness(TB)を検出する新しい課題に対処するエンドツーエンドマルチタスクシステムを提案する。
また、ベンチマークCEASE-v2.0データセットに基づいて、手動で翻訳したコード混合自殺メモコーパス、CoMCEASE-v2.0を導入する。
自殺ノートの時間方向と感情情報を利用して全体のパフォーマンスを向上する。
論文 参考訳(メタデータ) (2022-05-20T06:31:08Z) - An ensemble deep learning technique for detecting suicidal ideation from
posts in social media platforms [0.0]
本稿ではLSTM-Attention-CNN複合モデルを提案する。
提案されたモデルは90.3%の精度、F1スコア92.6%の精度を示した。
論文 参考訳(メタデータ) (2021-12-17T15:34:03Z) - Deep Learning for Suicide and Depression Identification with
Unsupervised Label Correction [0.0]
うつ病患者の自殺思考の早期発見は、適切な医療的注意と支援を可能にする。
最近のNLP研究は、個人が自殺的または臨床的に健康である場合、あるテキストから分類することに焦点を当てている。
本研究では,深層学習による自殺対分類手法であるSDCNLを提案する。
論文 参考訳(メタデータ) (2021-02-18T15:40:07Z) - Survival Modeling of Suicide Risk with Rare and Uncertain Diagnoses [15.732431764583323]
我々は,自殺未遂により入院し,後に退院した患者に対して,その後の自殺未遂のリスクを調査するために医療クレームデータを用いた。
疑わしい」自殺未遂の約20%は、傷害や毒の外部原因を示す診断コードから特定される。
論文 参考訳(メタデータ) (2020-09-05T20:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。