論文の概要: CMHL: Contrastive Multi-Head Learning for Emotionally Consistent Text Classification
- arxiv url: http://arxiv.org/abs/2603.14078v1
- Date: Sat, 14 Mar 2026 18:47:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.587111
- Title: CMHL: Contrastive Multi-Head Learning for Emotionally Consistent Text Classification
- Title(参考訳): CMHL:感情的一貫性のあるテキスト分類のためのコントラスト型マルチヘッド学習
- Authors: Menna Elgabry, Ali Hamdi, Khaled Shaban,
- Abstract要約: CMHLは、感情の論理構造を明示的にモデル化する新しい単一モデルアーキテクチャである。
125Mのパラメータで、このモデルは56倍のLLMとsLMのアンサンブルより優れています。
我々の研究は、アーキテクチャインテリジェンス(パラメータカウントではない)がテキスト感情分類の進歩を促進することを証明している。
- 参考スコア(独自算出の注目度): 0.5097809301149341
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Textual Emotion Classification (TEC) is one of the most difficult NLP tasks. State of the art approaches rely on Large language models (LLMs) and multi-model ensembles. In this study, we challenge the assumption that larger scale or more complex models are necessary for improved performance. In order to improve logical consistency, We introduce CMHL, a novel single-model architecture that explicitly models the logical structure of emotions through three key innovations: (1) multi-task learning that jointly predicts primary emotions, valence, and intensity, (2) psychologically-grounded auxiliary supervision derived from Russell's circumplex model, and (3) a novel contrastive contradiction loss that enforces emotional consistency by penalizing mutually incompatible predictions (e.g., simultaneous high confidence in joy and anger). With just 125M parameters, our model outperforms 56x larger LLMs and sLM ensembles with a new state-of-the-art F1 score of 93.75\% compared to (86.13\%-93.2\%) on the dair-ai Emotion dataset. We further show cross domain generalization on the Reddit Suicide Watch and Mental Health Collection dataset (SWMH), outperforming domain-specific models like MentalBERT and MentalRoBERTa with an F1 score of 72.50\% compared to (68.16\%-72.16\%) + a 73.30\% recall compared to (67.05\%-70.89\%) that translates to enhanced sensitivity for detecting mental health distress. Our work establishes that architectural intelligence (not parameter count) drives progress in TEC. By embedding psychological priors and explicit consistency constraints, a well-designed single model can outperform both massive LLMs and complex ensembles, offering a efficient, interpretable, and clinically-relevant paradigm for affective computing.
- Abstract(参考訳): テキスト感情分類(TEC)は最も難しいNLPタスクの一つである。
最先端のアプローチは、大規模言語モデル(LLM)とマルチモデルアンサンブルに依存している。
本研究では,より大規模なモデルや複雑なモデルが性能向上に不可欠であるという仮定に挑戦する。
論理的整合性を改善するために, CMHLは, 1) 一次感情, 原子価, 強度を共同で予測するマルチタスク学習, (2) ラッセルの概略モデルから引き起こされた心理的に座屈した補助的指導, (3) 相互に相容れない予測(例えば, 喜びと怒りの同時的高信頼)をペナル化することによって, 感情的整合性を強制する新たなコントラスト的矛盾損失の3つの重要な革新を通じて, 感情の論理的構造を明示的にモデル化する新しい単一モデルアーキテクチャである。
125Mのパラメータだけで、我々のモデルは56倍のLLMとsLMのアンサンブルを上回り、新しい最先端のF1スコアは93.75\%(86.13\%-93.2\%)である。
さらに、Reddit Suicide Watch and Mental Health Collection データセット (SWMH) におけるクロスドメインの一般化を示し、MentalBERT や MentalRoBERTa のようなドメイン固有のモデルよりも、F1 スコアが 72.50 % (68.16\%-72.16\%) + a 73.30 % リコールが (67.05\%-70.89\%) であるのに対して、精神的な健康被害を検知する感度が向上した。
私たちの研究は、アーキテクチャインテリジェンス(パラメータカウントではない)がTECの進歩を促進することを証明しています。
心理学的前提と明示的な一貫性の制約を埋め込むことで、十分に設計された単一モデルはLLMと複雑なアンサンブルの両方を上回り、感情コンピューティングの効率的で解釈可能で臨床的に関連のあるパラダイムを提供する。
関連論文リスト
- HUMANLLM: Benchmarking and Reinforcing LLM Anthropomorphism via Human Cognitive Patterns [59.17423586203706]
本稿では,心理的パターンを因果力の相互作用として扱うフレームワークであるHUMANLLMを提案する。
12,000の学術論文から244のパターンを構築し、2-5のパターンが相互に強化、衝突、変調されるシナリオ11,359を合成する。
我々の二重レベルチェックリストは、個々のパターンの忠実度と創発的なマルチパターンのダイナミクスを評価し、強い人間のアライメントを達成する。
論文 参考訳(メタデータ) (2026-01-15T08:56:53Z) - E^2-LLM: Bridging Neural Signals and Interpretable Affective Analysis [54.763420895859035]
脳波からの感情分析のための最初のMLLMフレームワークであるELLM2-EEG-to-Emotion Large Language Modelを提案する。
ELLMは学習可能なプロジェクション層を通じて、トレーニング済みのEEGエンコーダとQベースのLLMを統合し、マルチステージのトレーニングパイプラインを使用する。
7つの感情カテゴリーにまたがるデータセット実験により, ELLM2-EEG-to-Emotion Large Language Modelは感情分類において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2026-01-11T13:21:20Z) - MME-Emotion: A Holistic Evaluation Benchmark for Emotional Intelligence in Multimodal Large Language Models [108.61337743051483]
MME-Emotionは,MLLMの感情的理解と推論能力の両方を評価するシステムベンチマークである。
MME-Emotionには6000以上のキュレートされたビデオクリップとタスク固有の質問回答(QA)ペアが含まれており、8つの感情的なタスクを定式化するための広いシナリオにまたがっている。
マルチエージェントシステムフレームワークを通じて分析された、感情認識と推論のためのハイブリッドメトリクスを備えた総合評価スイートが組み込まれている。
論文 参考訳(メタデータ) (2025-08-11T03:14:55Z) - Integrating Large Language Models into a Tri-Modal Architecture for Automated Depression Classification on the DAIC-WOZ [0.0]
メジャー・うつ病(Major Depressive Disorder、MDD)は、世界中の3億人に影響を及ぼす広汎な精神疾患である。
本研究は, 臨床面接記録からのうつ病のバイナリ分類のための, BiLSTM に基づくトリモーダルモデルレベルの融合アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-07-27T21:00:36Z) - Emotion-LLaMA: Multimodal Emotion Recognition and Reasoning with Instruction Tuning [55.127202990679976]
28,618粒の粗粒と4,487粒の細粒のアノテートサンプルを含むMERRデータセットを導入した。
このデータセットは、さまざまなシナリオから学習し、現実のアプリケーションに一般化することを可能にする。
本研究では,感情特異的エンコーダによる音声,視覚,テキスト入力をシームレスに統合するモデルであるEmotion-LLaMAを提案する。
論文 参考訳(メタデータ) (2024-06-17T03:01:22Z) - Lory: Fully Differentiable Mixture-of-Experts for Autoregressive Language Model Pre-training [73.90260246781435]
私たちは、このようなアーキテクチャを自動回帰言語モデルに拡張する最初のアプローチであるLoryを紹介します。
パラメータマッチングされた高密度モデルよりも、多種多様な下流タスクにおいて顕著な性能向上を示す。
セグメントレベルのルーティングにもかかわらず、Loryモデルはトークンレベルのルーティングを備えた最先端のMoEモデルと比較して、競合的なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-05-06T03:06:33Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。