論文の概要: Cognition Chain for Explainable Psychological Stress Detection on Social Media
- arxiv url: http://arxiv.org/abs/2412.14009v1
- Date: Wed, 18 Dec 2024 16:26:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 16:48:58.460236
- Title: Cognition Chain for Explainable Psychological Stress Detection on Social Media
- Title(参考訳): ソーシャルメディアにおける説明可能な心理的ストレス検出のための認知連鎖
- Authors: Xin Wang, Boyan Gao, Yi Dai, Lei Cao, Liang Zhao, Yibo Yang, David Clifton,
- Abstract要約: ストレスは世界的な健康問題であり、深刻なメンタルヘルス問題を引き起こす可能性がある。
現在の早期検出モデルは、限定的な説明可能性と信頼に苦しむ「ブラックボックス」推論を実行する。
我々は,説明可能なストレス検出モデルであるCogLLMを開発した。
- 参考スコア(独自算出の注目度): 29.25424712182019
- License:
- Abstract: Stress is a pervasive global health issue that can lead to severe mental health problems. Early detection offers timely intervention and prevention of stress-related disorders. The current early detection models perform "black box" inference suffering from limited explainability and trust which blocks the real-world clinical application. Thanks to the generative properties introduced by the Large Language Models (LLMs), the decision and the prediction from such models are semi-interpretable through the corresponding description. However, the existing LLMs are mostly trained for general purposes without the guidance of psychological cognitive theory. To this end, we first highlight the importance of prior theory with the observation of performance boosted by the chain-of-thoughts tailored for stress detection. This method termed Cognition Chain explicates the generation of stress through a step-by-step cognitive perspective based on cognitive appraisal theory with a progress pipeline: Stimulus $\rightarrow$ Evaluation $\rightarrow$ Reaction $\rightarrow$ Stress State, guiding LLMs to provide comprehensive reasoning explanations. We further study the benefits brought by the proposed Cognition Chain format by utilising it as a synthetic dataset generation template for LLMs instruction-tuning and introduce CogInstruct, an instruction-tuning dataset for stress detection. This dataset is developed using a three-stage self-reflective annotation pipeline that enables LLMs to autonomously generate and refine instructional data. By instruction-tuning Llama3 with CogInstruct, we develop CogLLM, an explainable stress detection model. Evaluations demonstrate that CogLLM achieves outstanding performance while enhancing explainability. Our work contributes a novel approach by integrating cognitive theories into LLM reasoning processes, offering a promising direction for future explainable AI research.
- Abstract(参考訳): ストレスは世界的な健康問題であり、深刻なメンタルヘルス問題を引き起こす可能性がある。
早期発見はストレス関連疾患のタイムリーな介入と予防を提供する。
現在の早期検出モデルは、実際の臨床応用を阻害する限定的な説明可能性と信頼に苦しむ「ブラックボックス」推論を実行する。
LLM(Large Language Models)によって導入された生成特性のおかげで、そのようなモデルによる決定と予測は、対応する記述を通じて半解釈可能である。
しかし、既存のLSMは、心理学的認知理論の指導を受けずに、一般的に訓練されている。
この目的のために,まず,ストレス検出に適したチェーン・オブ・シンクレットによる性能向上を観察し,先行理論の重要性を強調した。
Stimulus $\rightarrow$ Evaluation $\rightarrow$ Reaction $\rightarrow$ Stress State と呼ばれるこの方法は、認知的評価理論に基づく段階的な認知的視点を通じてストレスの発生を説明し、LLMを包括的な推論的説明を提供するように導く。
さらに、LLMの命令チューニングのための合成データセット生成テンプレートとして利用し、ストレス検出のための命令チューニングデータセットであるCogInstructを導入することにより、提案したCgnition Chainフォーマットがもたらすメリットについて検討する。
このデータセットは、3段階の自己反射型アノテーションパイプラインを使用して開発され、LLMが自律的に命令データを生成して洗練することができる。
我々は,Llama3とCagInstructの命令チューニングにより,説明可能なストレス検出モデルであるCagLLMを開発した。
CogLLMは説明可能性を高めながら優れた性能を発揮することを示す。
我々の研究は、認知理論をLLM推論プロセスに統合し、将来の説明可能なAI研究に有望な方向性を提供する、新しいアプローチに貢献している。
関連論文リスト
- Hypothesis-Driven Theory-of-Mind Reasoning for Large Language Models [76.6028674686018]
エージェントの精神状態を追跡するための推論時間推論アルゴリズムである思考トレースを導入する。
提案アルゴリズムは,ベイズ理論をモデルとした。
本研究は,様々なベンチマークにおける思考トレーシングを評価し,大幅な性能向上を実証した。
論文 参考訳(メタデータ) (2025-02-17T15:08:50Z) - OCEAN: Offline Chain-of-thought Evaluation and Alignment in Large Language Models [68.17018458283651]
本研究は,LLMのチェーン・オブ・思想能力のオフライン評価に焦点をあてる。
我々は知識グラフ(例えばWikidata5m)を使って、生成された思考の連鎖に対するフィードバックを提供する。
提案手法に基づいてLCMを最適化する方法を示す。
論文 参考訳(メタデータ) (2024-10-31T07:48:44Z) - Interpretable Video based Stress Detection with Self-Refine Chain-of-thought Reasoning [4.541582055558865]
本稿では,ビデオベースストレス検出のための新しい解釈可能なアプローチを提案する。
本手法は,ストレスレベルを示すビデオシーケンスから微妙な行動・生理的手がかりを抽出することに焦点を当てる。
我々は、従来のビデオベースストレス検出法と比較して、その優れた性能を示すために、いくつかのパブリックおよびプライベートなデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2024-10-12T09:06:09Z) - Metacognitive Myopia in Large Language Models [0.0]
大規模言語モデル(LLM)は、文化的に固有のステレオタイプ、クラウドの道徳的判断、あるいは多数派の肯定的な評価を強化する潜在的に有害なバイアスを示す。
認知・生態的枠組みとしてメタ認知ミオピアを提案する。
我々の理論的枠組みは, メタ認知, 監視, 制御の2つの要素が欠如していることが, メタ認知性ミオピアの5つの症状を引き起こすことを示唆している。
論文 参考訳(メタデータ) (2024-08-10T14:43:57Z) - How Likely Do LLMs with CoT Mimic Human Reasoning? [31.86489714330338]
大規模言語モデル(LLM)から推論能力を引き出すための有望な手法として思考の連鎖が出現する
我々は,LLMにおける問題指導,推論,解答の関係を理解するために因果解析を用いる。
論文 参考訳(メタデータ) (2024-02-25T10:13:04Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Understanding, Predicting and Better Resolving Q-Value Divergence in
Offline-RL [86.0987896274354]
まず、オフラインRLにおけるQ値推定のばらつきの主な原因として、基本パターン、自己励起を同定する。
そこで本研究では,Q-network の学習における進化特性を測定するために,SEEM(Self-Excite Eigen Value Measure)尺度を提案する。
われわれの理論では、訓練が早期に発散するかどうかを確実に決定できる。
論文 参考訳(メタデータ) (2023-10-06T17:57:44Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Understanding Self-Supervised Learning of Speech Representation via
Invariance and Redundancy Reduction [0.45060992929802207]
自己教師付き学習(SSL)は、ラベルのないデータから柔軟な音声表現を学習するための有望なパラダイムとして登場した。
本研究は,人間の知覚における冗長性低下の理論に触発されたSSL技術であるBarlow Twins(BT)を実証分析した。
論文 参考訳(メタデータ) (2023-09-07T10:23:59Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。