論文の概要: Reliability Analysis of Psychological Concept Extraction and
Classification in User-penned Text
- arxiv url: http://arxiv.org/abs/2401.06709v1
- Date: Fri, 12 Jan 2024 17:19:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 18:44:49.954446
- Title: Reliability Analysis of Psychological Concept Extraction and
Classification in User-penned Text
- Title(参考訳): ユーザペンドテキストにおける心理概念抽出と分類の信頼性解析
- Authors: Muskan Garg, MSVPJ Sathvik, Amrit Chadha, Shaina Raza, Sunghwan Sohn
- Abstract要約: 私たちはLoSTデータセットを使って、Redditユーザーの投稿に低い自尊心があることを示唆するニュアンスのあるテキストキューをキャプチャします。
以上の結果から, PLM の焦点を Trigger と Consequences からより包括的な説明に移行する必要性が示唆された。
- 参考スコア(独自算出の注目度): 9.26840677406494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The social NLP research community witness a recent surge in the computational
advancements of mental health analysis to build responsible AI models for a
complex interplay between language use and self-perception. Such responsible AI
models aid in quantifying the psychological concepts from user-penned texts on
social media. On thinking beyond the low-level (classification) task, we
advance the existing binary classification dataset, towards a higher-level task
of reliability analysis through the lens of explanations, posing it as one of
the safety measures. We annotate the LoST dataset to capture nuanced textual
cues that suggest the presence of low self-esteem in the posts of Reddit users.
We further state that the NLP models developed for determining the presence of
low self-esteem, focus more on three types of textual cues: (i) Trigger: words
that triggers mental disturbance, (ii) LoST indicators: text indicators
emphasizing low self-esteem, and (iii) Consequences: words describing the
consequences of mental disturbance. We implement existing classifiers to
examine the attention mechanism in pre-trained language models (PLMs) for a
domain-specific psychology-grounded task. Our findings suggest the need of
shifting the focus of PLMs from Trigger and Consequences to a more
comprehensive explanation, emphasizing LoST indicators while determining low
self-esteem in Reddit posts.
- Abstract(参考訳): 社会的NLP研究コミュニティは、言語の使用と自己認識の間の複雑な相互作用のための責任あるAIモデルを構築するために、メンタルヘルス分析の計算的進歩が最近急増しているのを目撃している。
このような責任あるAIモデルは、ソーシャルメディア上でユーザーが入力したテキストから心理的概念を定量化するのに役立つ。
低レベル(分類)タスクを超えて考えることで、既存のバイナリ分類データセットを、説明のレンズを通して信頼性分析の高レベルタスクへと前進させ、安全対策の1つとします。
私たちはLoSTデータセットに注釈を付け、Redditユーザーの投稿に低い自己評価があることを示唆するニュアンスのあるテキストキューをキャプチャします。
さらに、低自尊心の有無を決定するために開発されたNLPモデルは、以下の3つのタイプに焦点をあてている。
(i)トリガー:精神障害を引き起こす単語
(ii)LoST指標:低自尊心を強調するテキスト指標、
(iii)結果:精神障害の結果を表す言葉。
既存の分類器を実装し,事前学習された言語モデル (plms) における注意のメカニズムを検討する。
以上の結果から,PLM の焦点を Trigger と Consequences からより包括的な説明に移すことの必要性が示唆された。
関連論文リスト
- Enhancing Depression Detection with Chain-of-Thought Prompting: From Emotion to Reasoning Using Large Language Models [9.43184936918456]
うつ病は世界中で障害の主な原因の1つである。
大規模言語モデルの最近の進歩は、精神的な健康問題に対処する上で有望であることを示している。
そこで本研究では,抑うつ検出の性能と解釈性を両立するChain-of-Thought Prompting手法を提案する。
論文 参考訳(メタデータ) (2025-02-09T12:30:57Z) - LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - Detecting anxiety and depression in dialogues: a multi-label and explainable approach [5.635300481123079]
不安と抑うつは世界中で最も一般的なメンタルヘルスの問題であり、人口の非無視的な部分に影響を及ぼす。
本研究では、不安と抑うつの多ラベル分類のための全く新しいシステムを提案する。
論文 参考訳(メタデータ) (2024-12-23T15:29:46Z) - Decoding Linguistic Nuances in Mental Health Text Classification Using Expressive Narrative Stories [5.091061468748012]
本研究は,自己宣言型抑うつを伴う人や無関係の人からの表現的物語(ENS)に着目し,そのギャップを埋めるものである。
本研究は,従来の言語モデルに対する高度言語モデルであるBERTとMentalBERTの有用性を評価する。
BERT は ENS における話題単語の欠如に対して最小限の感度を示し,より深い言語的特徴を理解する能力に優れていたことを示唆した。
論文 参考訳(メタデータ) (2024-12-20T19:29:21Z) - Explore the Hallucination on Low-level Perception for MLLMs [83.12180878559295]
低レベルの視覚知覚と理解タスクにおけるMLLMの自己認識性を定義し,評価することを目的としている。
低レベルの視覚に対する人間の反応をシミュレートするベンチマーク設定であるQL-Benchを提案する。
いくつかのモデルでは、ロバストな低レベル視覚能力を示すが、その自己認識性は比較的未発達である。
論文 参考訳(メタデータ) (2024-09-15T14:38:29Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - A Simple and Flexible Modeling for Mental Disorder Detection by Learning
from Clinical Questionnaires [0.2580765958706853]
そこで本研究では,テキストから直接意味を抽出し,症状に関連する記述と比較する手法を提案する。
詳細な分析により,提案モデルがドメイン知識の活用,他の精神疾患への伝達,解釈可能な検出結果の提供に有効であることが示唆された。
論文 参考訳(メタデータ) (2023-06-05T15:23:55Z) - An Annotated Dataset for Explainable Interpersonal Risk Factors of
Mental Disturbance in Social Media Posts [0.0]
ソーシャルメディア上での精神障害に影響を及ぼす人為的リスクファクター(IRF)の分類と説明を伴う注釈付きデータセットの構築とリリースを行う。
我々は,TBeとPBuのパターンをユーザの歴史的ソーシャルメディアプロファイルの感情スペクトルで検出することにより,将来的な研究方向のベースラインモデルを構築し,リアルタイムなパーソナライズされたAIモデルを開発する。
論文 参考訳(メタデータ) (2023-05-30T04:08:40Z) - Leveraging Pretrained Representations with Task-related Keywords for
Alzheimer's Disease Detection [69.53626024091076]
アルツハイマー病(AD)は高齢者に特に顕著である。
事前学習モデルの最近の進歩は、AD検出モデリングを低レベル特徴から高レベル表現にシフトさせる動機付けとなっている。
本稿では,高レベルの音響・言語的特徴から,より優れたAD関連手がかりを抽出する,いくつかの効率的な手法を提案する。
論文 参考訳(メタデータ) (2023-03-14T16:03:28Z) - Pose-based Body Language Recognition for Emotion and Psychiatric Symptom
Interpretation [75.3147962600095]
通常のRGBビデオから始まるボディーランゲージに基づく感情認識のための自動フレームワークを提案する。
心理学者との連携により,精神症状予測の枠組みを拡張した。
提案されたフレームワークの特定のアプリケーションドメインは限られた量のデータしか供給しないため、フレームワークは小さなトレーニングセットで動作するように設計されている。
論文 参考訳(メタデータ) (2020-10-30T18:45:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。