論文の概要: Lightme: Analysing Language in Internet Support Groups for Mental Health
- arxiv url: http://arxiv.org/abs/2007.00824v2
- Date: Fri, 3 Jul 2020 00:45:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 13:07:45.942187
- Title: Lightme: Analysing Language in Internet Support Groups for Mental Health
- Title(参考訳): Lightme: メンタルヘルスのためのインターネットサポートグループにおける言語分析
- Authors: Gabriela Ferraro and Brendan Loo Gee and Shenjia Ji and Luis
Salvador-Carulla
- Abstract要約: 手法:自然言語処理と機械学習技術が用いられた。
結果: 主に語彙資源の特徴に基づくソリューションで, 危機投稿の分類性能が最も高い(52%)。
我々の量的および質的な発見を特徴に翻訳するためには、さらなる研究が必要である。
- 参考スコア(独自算出の注目度): 1.474723404975345
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Background: Assisting moderators to triage harmful posts in Internet Support
Groups is relevant to ensure its safe use. Automated text classification
methods analysing the language expressed in posts of online forums is a
promising solution. Methods: Natural Language Processing and Machine Learning
technologies were used to build a triage post classifier using a dataset from
Reachout mental health forum for young people. Results: When comparing with the
state-of-the-art, a solution mainly based on features from lexical resources,
received the best classification performance for the crisis posts (52%), which
is the most severe class. Six salient linguistic characteristics were found
when analysing the crisis post; 1) posts expressing hopelessness, 2) short
posts expressing concise negative emotional responses, 3) long posts expressing
variations of emotions, 4) posts expressing dissatisfaction with available
health services, 5) posts utilising storytelling, and 6) posts expressing users
seeking advice from peers during a crisis. Conclusion: It is possible to build
a competitive triage classifier using features derived only from the textual
content of the post. Further research needs to be done in order to translate
our quantitative and qualitative findings into features, as it may improve
overall performance.
- Abstract(参考訳): 背景:インターネット支援グループにおける有害なポストをトリアージするためのモデレーターの支援は、安全な使用を保証するために重要である。
オンラインフォーラムの投稿で表現された言語を分析する自動テキスト分類法は有望な解決策である。
方法: 自然言語処理と機械学習技術を用いて、若者向けのリーチアウトメンタルヘルスフォーラムのデータセットを用いたトリアージポスト分類器を構築した。
結果: 現状技術と比較した場合, 主に語彙資源の特徴に基づくソリューションは, 危機ポスト(52%)において, 最良分類性能(52%)を得た。
6つの言語学的特徴が危機時の立場から発見された。
1)無希望を表すポスト
2)ネガティブな反応を簡潔に表現する短い投稿
3)感情のバリエーションを表現した長い投稿
4) 利用可能な医療サービスに対する不満を表す投稿
5)ストーリーテリングを利用したポスト、及び
6)危機時に仲間からアドバイスを求めるユーザーを表現する投稿。
結論: 記事のテクストコンテンツのみから派生した特徴を用いて,競合的トリアージ分類器を構築することが可能である。
全体的なパフォーマンスを改善するために、量的、質的な発見を特徴に翻訳するために、さらなる研究を行う必要があります。
関連論文リスト
- Towards Effective Paraphrasing for Information Disguise [13.356934367660811]
著者の執筆したオンラインコミュニケーションがセンシティブなドメインに関連する場合,ID(Information Disguise)の研究が重要となる。
著者の投稿から与えられた文に対して,パラフレージングの方向に文の反復摂動を行う枠組みを提案する。
本研究は, パープレキシティスコアを用いたフレーズ重要度ランキングの新たな手法を導入し, ビームサーチによる複数レベルのフレーズ置換を行う。
論文 参考訳(メタデータ) (2023-11-08T21:12:59Z) - SenteCon: Leveraging Lexicons to Learn Human-Interpretable Language
Representations [51.08119762844217]
SenteConは、深層言語表現に人間の解釈可能性を導入する方法である。
SenteConは、下流タスクにおける予測性能にほとんど、あるいは全くコストをかからない高レベルな解釈性を提供する。
論文 参考訳(メタデータ) (2023-05-24T05:06:28Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - Depression detection in social media posts using affective and social
norm features [84.12658971655253]
ソーシャルメディア投稿からの抑うつ検出のための奥深いアーキテクチャを提案する。
我々は、後期融合方式を用いて、ポストとワードの敬称と道徳的特徴をアーキテクチャに組み込んだ。
提案された機能を含めると、両方の設定で最先端の結果が得られます。
論文 参考訳(メタデータ) (2023-03-24T21:26:27Z) - Qualitative Analysis of a Graph Transformer Approach to Addressing Hate
Speech: Adapting to Dynamically Changing Content [8.393770595114763]
我々は、ソーシャルネットワークにおけるヘイトスピーチ検出のために、このソリューションの詳細な質的分析を提供する。
重要な洞察は、コンテキストの概念に関する推論に焦点が当てられていることは、オンライン投稿のマルチモーダル分析をサポートするのに十分な位置にあるということだ。
この問題が特に動的変化のテーマとどのように関係しているかを考察して結論付けます。
論文 参考訳(メタデータ) (2023-01-25T23:32:32Z) - Semantic Similarity Models for Depression Severity Estimation [53.72188878602294]
本稿では、ソーシャルメディアの文章に基づいて、個人のうつ病の重症度を研究するための効率的なセマンティックパイプラインを提案する。
我々は,抑うつ症状と重度レベルに対応する代表訓練文の指標に対して意味的ランキングを生成するために,テストユーザ文を使用する。
本手法を2つのRedditベースのベンチマークで評価し,うつ病の重症度を指標として,最先端技術よりも30%改善した。
論文 参考訳(メタデータ) (2022-11-14T18:47:26Z) - Assessing the impact of contextual information in hate speech detection [0.48369513656026514]
我々は,Twitter上のメディアからのニュース投稿に対するユーザの反応に基づいた,文脈的ヘイトスピーチ検出のための新しいコーパスを提供する。
このコーパスはリオプラテンセ方言のスペイン語で収集され、新型コロナウイルスのパンデミックに関連するヘイトスピーチに焦点を当てている。
論文 参考訳(メタデータ) (2022-10-02T09:04:47Z) - Enriching Abusive Language Detection with Community Context [0.3708656266586145]
叙述表現の使用は、良心的または活発な権限を与えることができる。
乱用検出のモデルは、これらの表現を軽蔑的で不注意に、疎外されたグループが持つ生産的な会話を検閲するものとして誤分類する。
本稿では,コミュニティの文脈が乱用言語検出における分類結果をどのように改善するかを強調した。
論文 参考訳(メタデータ) (2022-06-16T20:54:02Z) - XTREME-S: Evaluating Cross-lingual Speech Representations [88.78720838743772]
XTREME-Sは,言語間の共通言語表現を評価するための新しいベンチマークである。
本稿では,新しいベンチマークについて述べるとともに,音声のみのベースラインと音声テキストのベースラインを確立する。
論文 参考訳(メタデータ) (2022-03-21T06:50:21Z) - A Deep Neural Framework for Contextual Affect Detection [51.378225388679425]
感情を持たない短い単純なテキストは、その文脈と共に読むときに強い感情を表現することができる。
文中の単語の相互依存を学習する文脈影響検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-28T05:03:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。