論文の概要: Explainable Causal Analysis of Mental Health on Social Media Data
- arxiv url: http://arxiv.org/abs/2210.08430v1
- Date: Sun, 16 Oct 2022 03:34:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 16:40:45.322418
- Title: Explainable Causal Analysis of Mental Health on Social Media Data
- Title(参考訳): ソーシャルメディアデータによるメンタルヘルスの説明可能な因果分析
- Authors: Chandni Saxena, Muskan Garg, Gunjan Saxena
- Abstract要約: ソーシャルメディア上でのメンタルヘルス問題に対するマルチクラス因果分類は、誤った予測の大きな課題である。
データセットにおける因果的説明/不適切な人間アノテーション推論の不整合性。
本研究では,マルチクラス因果分類における不整合の原因を明らかにする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With recent developments in Social Computing, Natural Language Processing and
Clinical Psychology, the social NLP research community addresses the challenge
of automation in mental illness on social media. A recent extension to the
problem of multi-class classification of mental health issues is to identify
the cause behind the user's intention. However, multi-class causal
categorization for mental health issues on social media has a major challenge
of wrong prediction due to the overlapping problem of causal explanations.
There are two possible mitigation techniques to solve this problem: (i)
Inconsistency among causal explanations/ inappropriate human-annotated
inferences in the dataset, (ii) in-depth analysis of arguments and stances in
self-reported text using discourse analysis. In this research work, we
hypothesise that if there exists the inconsistency among F1 scores of different
classes, there must be inconsistency among corresponding causal explanations as
well. In this task, we fine tune the classifiers and find explanations for
multi-class causal categorization of mental illness on social media with LIME
and Integrated Gradient (IG) methods. We test our methods with CAMS dataset and
validate with annotated interpretations. A key contribution of this research
work is to find the reason behind inconsistency in accuracy of multi-class
causal categorization. The effectiveness of our methods is evident with the
results obtained having category-wise average scores of $81.29 \%$ and $0.906$
using cosine similarity and word mover's distance, respectively.
- Abstract(参考訳): 近年の社会コンピューティング、自然言語処理、臨床心理学の発展に伴い、社会NLP研究コミュニティは、ソーシャルメディア上での精神疾患の自動化の課題に対処している。
近年のメンタルヘルス問題の多クラス分類問題への拡張は、ユーザの意図の背景にある原因を特定することである。
しかし,ソーシャルメディア上でのメンタルヘルス問題に対する多クラス因果分類は,因果説明の重複問題による誤予測の課題となっている。
この問題を解決するには2つの方法があります
(i)データセットにおける因果説明/不適切な人間注釈推論の矛盾
(ii)談話分析を用いた自己報告テキストにおける議論と態度の深い分析
本研究は,異なるクラスのF1スコア間に矛盾が存在する場合,対応する因果的説明間にも矛盾があることを仮定する。
本課題では, LIME法と統合勾配法(IG)法を用いて, 分類器を微調整し, ソーシャルメディア上での精神疾患のマルチクラス因果分類に関する説明を求める。
提案手法をCAMSデータセットで検証し,注釈付き解釈で検証する。
この研究の重要な貢献は、多クラス因果分類の精度の矛盾の原因を見つけることである。
提案手法の有効性は,コサイン類似度と単語移動者の距離を用いて,カテゴリー平均スコアが81.29 \%$と0.906$で得られた結果から明らかである。
関連論文リスト
- Causal Micro-Narratives [62.47217054314046]
テキストから因果マイクロナラティブを分類する新しい手法を提案する。
これらの物語は、対象対象の因果関係と/または効果の文レベルの説明である。
論文 参考訳(メタデータ) (2024-10-07T17:55:10Z) - CausalGym: Benchmarking causal interpretability methods on linguistic
tasks [52.61917615039112]
CausalGymを使って、モデル動作に因果的に影響を及ぼす解釈可能性手法のベンチマークを行う。
ピチアモデル (14M--6.9B) について検討し, 幅広い解釈可能性手法の因果効果について検討した。
DASは他の手法よりも優れており、2つの困難な言語現象の学習軌跡の研究に利用している。
論文 参考訳(メタデータ) (2024-02-19T21:35:56Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - MentaLLaMA: Interpretable Mental Health Analysis on Social Media with
Large Language Models [28.62967557368565]
ソーシャルメディア上に,最初のマルチタスクおよびマルチソース解釈可能なメンタルヘルスインストラクションデータセットを構築した。
専門家が作成した数発のプロンプトとラベルを収集し,ChatGPTをプロンプトし,その応答から説明を得る。
IMHIデータセットとLLaMA2ファンデーションモデルに基づいて、メンタルヘルス分析のための最初のオープンソースLLMシリーズであるMentalLLaMAを訓練する。
論文 参考訳(メタデータ) (2023-09-24T06:46:08Z) - A Causal Framework for Decomposing Spurious Variations [68.12191782657437]
我々はマルコフモデルとセミマルコフモデルの急激な変分を分解するツールを開発する。
突発効果の非パラメトリック分解を可能にする最初の結果を証明する。
説明可能なAIや公平なAIから、疫学や医学における疑問まで、いくつかの応用がある。
論文 参考訳(メタデータ) (2023-06-08T09:40:28Z) - Multi-class Categorization of Reasons behind Mental Disturbance in Long
Texts [0.0]
我々はLongformerを用いて、自己報告されたテキストで精神疾患の背景にある因果指標を見つける問題に対処する。
実験によると、Longformerは62%のF1スコアを持つ公開データセットであるM-CAMSで、最先端の新たな結果を達成している。
我々の研究は、うつ病や自殺リスクの因果分析をソーシャルメディアデータ上で促進し、他の精神状態に適用する可能性を示していると信じている。
論文 参考訳(メタデータ) (2023-04-08T22:44:32Z) - NLP as a Lens for Causal Analysis and Perception Mining to Infer Mental
Health on Social Media [10.342474142256842]
我々は、臨床心理学の実践とパーソナライズされた精神医療に最適な影響を与えるために、より簡潔で説明可能な研究が必要であると論じる。
自然言語処理(NLP)の範囲内では,因果解析と知覚マイニングに関連する重要な調査領域を探索する。
我々は、言語レンズを通して計算心理学の問題をモデル化するための、より説明可能なアプローチを提唱する。
論文 参考訳(メタデータ) (2023-01-26T09:26:01Z) - Causal Categorization of Mental Health Posts using Transformers [0.0]
既存のメンタルヘルス分析研究は、ソーシャルメディアに対するユーザの意図を分類するために、横断的な研究を中心に展開されている。
詳細な分析では,因果分類の問題を解くために既存の分類器について検討する。
本研究では, トランスフォーマーモデルを用いて, トレーニング済みのトランスファー学習の有効性を「CAMS」データセット上で実証する。
論文 参考訳(メタデータ) (2023-01-06T16:37:48Z) - Aggression and "hate speech" in communication of media users: analysis
of control capabilities [50.591267188664666]
著者らは新メディアにおける利用者の相互影響の可能性を検討した。
新型コロナウイルス(COVID-19)対策として、緊急の社会問題について議論する際、攻撃やヘイトスピーチのレベルが高いことが分かった。
結果は、現代のデジタル環境におけるメディアコンテンツの開発に有用である。
論文 参考訳(メタデータ) (2022-08-25T15:53:32Z) - CAMS: An Annotated Corpus for Causal Analysis of Mental Health Issues in
Social Media Posts [17.853932382843222]
ソーシャルメディア投稿(CAMS)におけるメンタルヘルス問題の因果分析のための新しいデータセットについて紹介する。
因果的分析への我々の貢献は、因果的解釈と因果的分類である。
本稿では,CAMSデータセットから得られたモデルの実験結果と,従来のロジスティック回帰モデルが次善(CNN-LSTM)モデルよりも4.9%精度で優れていることを示す。
論文 参考訳(メタデータ) (2022-07-11T07:38:18Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。