論文の概要: Reliability Analysis of Psychological Concept Extraction and
Classification in User-penned Text
- arxiv url: http://arxiv.org/abs/2401.06709v1
- Date: Fri, 12 Jan 2024 17:19:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 18:44:49.954446
- Title: Reliability Analysis of Psychological Concept Extraction and
Classification in User-penned Text
- Title(参考訳): ユーザペンドテキストにおける心理概念抽出と分類の信頼性解析
- Authors: Muskan Garg, MSVPJ Sathvik, Amrit Chadha, Shaina Raza, Sunghwan Sohn
- Abstract要約: 私たちはLoSTデータセットを使って、Redditユーザーの投稿に低い自尊心があることを示唆するニュアンスのあるテキストキューをキャプチャします。
以上の結果から, PLM の焦点を Trigger と Consequences からより包括的な説明に移行する必要性が示唆された。
- 参考スコア(独自算出の注目度): 9.26840677406494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The social NLP research community witness a recent surge in the computational
advancements of mental health analysis to build responsible AI models for a
complex interplay between language use and self-perception. Such responsible AI
models aid in quantifying the psychological concepts from user-penned texts on
social media. On thinking beyond the low-level (classification) task, we
advance the existing binary classification dataset, towards a higher-level task
of reliability analysis through the lens of explanations, posing it as one of
the safety measures. We annotate the LoST dataset to capture nuanced textual
cues that suggest the presence of low self-esteem in the posts of Reddit users.
We further state that the NLP models developed for determining the presence of
low self-esteem, focus more on three types of textual cues: (i) Trigger: words
that triggers mental disturbance, (ii) LoST indicators: text indicators
emphasizing low self-esteem, and (iii) Consequences: words describing the
consequences of mental disturbance. We implement existing classifiers to
examine the attention mechanism in pre-trained language models (PLMs) for a
domain-specific psychology-grounded task. Our findings suggest the need of
shifting the focus of PLMs from Trigger and Consequences to a more
comprehensive explanation, emphasizing LoST indicators while determining low
self-esteem in Reddit posts.
- Abstract(参考訳): 社会的NLP研究コミュニティは、言語の使用と自己認識の間の複雑な相互作用のための責任あるAIモデルを構築するために、メンタルヘルス分析の計算的進歩が最近急増しているのを目撃している。
このような責任あるAIモデルは、ソーシャルメディア上でユーザーが入力したテキストから心理的概念を定量化するのに役立つ。
低レベル(分類)タスクを超えて考えることで、既存のバイナリ分類データセットを、説明のレンズを通して信頼性分析の高レベルタスクへと前進させ、安全対策の1つとします。
私たちはLoSTデータセットに注釈を付け、Redditユーザーの投稿に低い自己評価があることを示唆するニュアンスのあるテキストキューをキャプチャします。
さらに、低自尊心の有無を決定するために開発されたNLPモデルは、以下の3つのタイプに焦点をあてている。
(i)トリガー:精神障害を引き起こす単語
(ii)LoST指標:低自尊心を強調するテキスト指標、
(iii)結果:精神障害の結果を表す言葉。
既存の分類器を実装し,事前学習された言語モデル (plms) における注意のメカニズムを検討する。
以上の結果から,PLM の焦点を Trigger と Consequences からより包括的な説明に移すことの必要性が示唆された。
関連論文リスト
- Explore the Hallucination on Low-level Perception for MLLMs [83.12180878559295]
低レベルの視覚知覚と理解タスクにおけるMLLMの自己認識性を定義し,評価することを目的としている。
低レベルの視覚に対する人間の反応をシミュレートするベンチマーク設定であるQL-Benchを提案する。
いくつかのモデルでは、ロバストな低レベル視覚能力を示すが、その自己認識性は比較的未発達である。
論文 参考訳(メタデータ) (2024-09-15T14:38:29Z) - Exploring the Task-agnostic Trait of Self-supervised Learning in the Context of Detecting Mental Disorders [2.314534951601432]
自己教師付き学習(SSL)は、様々な領域にまたがるタスクに依存しない表現を生成するために研究されている。
この研究では、複数の固定されたターゲットまたはマスクされたフレームを予測することでトレーニングされたSSLモデルを採用する。
本稿では,MDDおよびPTSDの検出において,生成した表現をより効率的にするための固定目標のリストを提案する。
論文 参考訳(メタデータ) (2024-03-22T12:46:58Z) - LLMvsSmall Model? Large Language Model Based Text Augmentation Enhanced
Personality Detection Model [58.887561071010985]
パーソナリティ検出は、ソーシャルメディア投稿に根ざした性格特性を検出することを目的としている。
既存のほとんどのメソッドは、事前訓練された言語モデルを微調整することで、ポスト機能を直接学習する。
本稿では,大規模言語モデル (LLM) に基づくテキスト拡張強化人格検出モデルを提案する。
論文 参考訳(メタデータ) (2024-03-12T12:10:18Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Interpreting Context Look-ups in Transformers: Investigating Attention-MLP Interactions [19.33740818235595]
本研究では,大規模言語モデル(LLM)において,注意頭と次点ニューロンがどのように相互作用し,新たな単語を予測するかを検討する。
以上の結果から,注意頭は特定の文脈を認識し,それに応じてトークン予測ニューロンを活性化することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-23T02:15:47Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Explainable Depression Symptom Detection in Social Media [2.677715367737641]
本稿では, トランスフォーマーアーキテクチャを用いて, ユーザの文章中の抑うつ症状マーカーの出現を検知し, 説明する。
我々の自然言語による説明により、臨床医はバリデーションされた症状に基づいてモデルの判断を解釈できる。
論文 参考訳(メタデータ) (2023-10-20T17:05:27Z) - A Simple and Flexible Modeling for Mental Disorder Detection by Learning
from Clinical Questionnaires [0.2580765958706853]
そこで本研究では,テキストから直接意味を抽出し,症状に関連する記述と比較する手法を提案する。
詳細な分析により,提案モデルがドメイン知識の活用,他の精神疾患への伝達,解釈可能な検出結果の提供に有効であることが示唆された。
論文 参考訳(メタデータ) (2023-06-05T15:23:55Z) - An Annotated Dataset for Explainable Interpersonal Risk Factors of
Mental Disturbance in Social Media Posts [0.0]
ソーシャルメディア上での精神障害に影響を及ぼす人為的リスクファクター(IRF)の分類と説明を伴う注釈付きデータセットの構築とリリースを行う。
我々は,TBeとPBuのパターンをユーザの歴史的ソーシャルメディアプロファイルの感情スペクトルで検出することにより,将来的な研究方向のベースラインモデルを構築し,リアルタイムなパーソナライズされたAIモデルを開発する。
論文 参考訳(メタデータ) (2023-05-30T04:08:40Z) - Leveraging Pretrained Representations with Task-related Keywords for
Alzheimer's Disease Detection [69.53626024091076]
アルツハイマー病(AD)は高齢者に特に顕著である。
事前学習モデルの最近の進歩は、AD検出モデリングを低レベル特徴から高レベル表現にシフトさせる動機付けとなっている。
本稿では,高レベルの音響・言語的特徴から,より優れたAD関連手がかりを抽出する,いくつかの効率的な手法を提案する。
論文 参考訳(メタデータ) (2023-03-14T16:03:28Z) - Pose-based Body Language Recognition for Emotion and Psychiatric Symptom
Interpretation [75.3147962600095]
通常のRGBビデオから始まるボディーランゲージに基づく感情認識のための自動フレームワークを提案する。
心理学者との連携により,精神症状予測の枠組みを拡張した。
提案されたフレームワークの特定のアプリケーションドメインは限られた量のデータしか供給しないため、フレームワークは小さなトレーニングセットで動作するように設計されている。
論文 参考訳(メタデータ) (2020-10-30T18:45:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。