論文の概要: Reliability Analysis of Psychological Concept Extraction and
Classification in User-penned Text
- arxiv url: http://arxiv.org/abs/2401.06709v1
- Date: Fri, 12 Jan 2024 17:19:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 18:44:49.954446
- Title: Reliability Analysis of Psychological Concept Extraction and
Classification in User-penned Text
- Title(参考訳): ユーザペンドテキストにおける心理概念抽出と分類の信頼性解析
- Authors: Muskan Garg, MSVPJ Sathvik, Amrit Chadha, Shaina Raza, Sunghwan Sohn
- Abstract要約: 私たちはLoSTデータセットを使って、Redditユーザーの投稿に低い自尊心があることを示唆するニュアンスのあるテキストキューをキャプチャします。
以上の結果から, PLM の焦点を Trigger と Consequences からより包括的な説明に移行する必要性が示唆された。
- 参考スコア(独自算出の注目度): 9.26840677406494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The social NLP research community witness a recent surge in the computational
advancements of mental health analysis to build responsible AI models for a
complex interplay between language use and self-perception. Such responsible AI
models aid in quantifying the psychological concepts from user-penned texts on
social media. On thinking beyond the low-level (classification) task, we
advance the existing binary classification dataset, towards a higher-level task
of reliability analysis through the lens of explanations, posing it as one of
the safety measures. We annotate the LoST dataset to capture nuanced textual
cues that suggest the presence of low self-esteem in the posts of Reddit users.
We further state that the NLP models developed for determining the presence of
low self-esteem, focus more on three types of textual cues: (i) Trigger: words
that triggers mental disturbance, (ii) LoST indicators: text indicators
emphasizing low self-esteem, and (iii) Consequences: words describing the
consequences of mental disturbance. We implement existing classifiers to
examine the attention mechanism in pre-trained language models (PLMs) for a
domain-specific psychology-grounded task. Our findings suggest the need of
shifting the focus of PLMs from Trigger and Consequences to a more
comprehensive explanation, emphasizing LoST indicators while determining low
self-esteem in Reddit posts.
- Abstract(参考訳): 社会的NLP研究コミュニティは、言語の使用と自己認識の間の複雑な相互作用のための責任あるAIモデルを構築するために、メンタルヘルス分析の計算的進歩が最近急増しているのを目撃している。
このような責任あるAIモデルは、ソーシャルメディア上でユーザーが入力したテキストから心理的概念を定量化するのに役立つ。
低レベル(分類)タスクを超えて考えることで、既存のバイナリ分類データセットを、説明のレンズを通して信頼性分析の高レベルタスクへと前進させ、安全対策の1つとします。
私たちはLoSTデータセットに注釈を付け、Redditユーザーの投稿に低い自己評価があることを示唆するニュアンスのあるテキストキューをキャプチャします。
さらに、低自尊心の有無を決定するために開発されたNLPモデルは、以下の3つのタイプに焦点をあてている。
(i)トリガー:精神障害を引き起こす単語
(ii)LoST指標:低自尊心を強調するテキスト指標、
(iii)結果:精神障害の結果を表す言葉。
既存の分類器を実装し,事前学習された言語モデル (plms) における注意のメカニズムを検討する。
以上の結果から,PLM の焦点を Trigger と Consequences からより包括的な説明に移すことの必要性が示唆された。
関連論文リスト
- LLMvsSmall Model? Large Language Model Based Text Augmentation Enhanced
Personality Detection Model [58.887561071010985]
パーソナリティ検出は、ソーシャルメディア投稿に根ざした性格特性を検出することを目的としている。
既存のほとんどのメソッドは、事前訓練された言語モデルを微調整することで、ポスト機能を直接学習する。
本稿では,大規模言語モデル (LLM) に基づくテキスト拡張強化人格検出モデルを提案する。
論文 参考訳(メタデータ) (2024-03-12T12:10:18Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Explainable Depression Symptom Detection in Social Media [2.433983268807517]
本稿では, トランスフォーマーアーキテクチャを用いて, ユーザの文章中の抑うつ症状マーカーの出現を検知し, 説明する。
我々の自然言語による説明により、臨床医はバリデーションされた症状に基づいてモデルの判断を解釈できる。
論文 参考訳(メタデータ) (2023-10-20T17:05:27Z) - Bring Your Own Data! Self-Supervised Evaluation for Large Language
Models [52.15056231665816]
大規模言語モデル(LLM)の自己教師型評価のためのフレームワークを提案する。
閉書知識,毒性,長期文脈依存性を測定するための自己指導型評価戦略を実証する。
自己監督評価と人監督評価との間には強い相関関係が認められた。
論文 参考訳(メタデータ) (2023-06-23T17:59:09Z) - DEPAC: a Corpus for Depression and Anxiety Detection from Speech [3.2154432166999465]
本稿では、うつ病と不安スクリーニングツールの確立したしきい値に基づいてラベル付けされた、心的苦痛分析オーディオデータセットDEPACを紹介する。
この大きなデータセットは、個人ごとの複数の音声タスクと、関連する人口統計情報から構成される。
人間の音声における精神疾患の徴候の同定に有効な,手作業による音響的特徴と言語的特徴からなる特徴セットを提案する。
論文 参考訳(メタデータ) (2023-06-20T12:21:06Z) - A Simple and Flexible Modeling for Mental Disorder Detection by Learning
from Clinical Questionnaires [0.2580765958706853]
そこで本研究では,テキストから直接意味を抽出し,症状に関連する記述と比較する手法を提案する。
詳細な分析により,提案モデルがドメイン知識の活用,他の精神疾患への伝達,解釈可能な検出結果の提供に有効であることが示唆された。
論文 参考訳(メタデータ) (2023-06-05T15:23:55Z) - An Annotated Dataset for Explainable Interpersonal Risk Factors of
Mental Disturbance in Social Media Posts [0.0]
ソーシャルメディア上での精神障害に影響を及ぼす人為的リスクファクター(IRF)の分類と説明を伴う注釈付きデータセットの構築とリリースを行う。
我々は,TBeとPBuのパターンをユーザの歴史的ソーシャルメディアプロファイルの感情スペクトルで検出することにより,将来的な研究方向のベースラインモデルを構築し,リアルタイムなパーソナライズされたAIモデルを開発する。
論文 参考訳(メタデータ) (2023-05-30T04:08:40Z) - Leveraging Pretrained Representations with Task-related Keywords for
Alzheimer's Disease Detection [69.53626024091076]
アルツハイマー病(AD)は高齢者に特に顕著である。
事前学習モデルの最近の進歩は、AD検出モデリングを低レベル特徴から高レベル表現にシフトさせる動機付けとなっている。
本稿では,高レベルの音響・言語的特徴から,より優れたAD関連手がかりを抽出する,いくつかの効率的な手法を提案する。
論文 参考訳(メタデータ) (2023-03-14T16:03:28Z) - Pose-based Body Language Recognition for Emotion and Psychiatric Symptom
Interpretation [75.3147962600095]
通常のRGBビデオから始まるボディーランゲージに基づく感情認識のための自動フレームワークを提案する。
心理学者との連携により,精神症状予測の枠組みを拡張した。
提案されたフレームワークの特定のアプリケーションドメインは限られた量のデータしか供給しないため、フレームワークは小さなトレーニングセットで動作するように設計されている。
論文 参考訳(メタデータ) (2020-10-30T18:45:16Z) - Looking At The Body: Automatic Analysis of Body Gestures and
Self-Adaptors in Psychological Distress [0.9624643581968987]
心理学的苦痛は社会において重要かつ増大している問題である。
ポーズ推定とディープラーニングの最近の進歩は、このモダリティとドメインに対する新しいアプローチを可能にしている。
本研究では,自己適応者のサブセットである自己適応とフィジットを自動的に検出する新たな手法を提案する。
論文 参考訳(メタデータ) (2020-07-31T02:45:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。