論文の概要: Emotion-o1: Adaptive Long Reasoning for Emotion Understanding in LLMs
- arxiv url: http://arxiv.org/abs/2505.22548v1
- Date: Wed, 28 May 2025 16:32:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.729803
- Title: Emotion-o1: Adaptive Long Reasoning for Emotion Understanding in LLMs
- Title(参考訳): Emotion-o1:LLMにおける感情理解のための適応長推論
- Authors: Changhao Song, Yazhou Zhang, Peng Zhang,
- Abstract要約: 本稿では,DeepSeek-R1を用いたタスク適応推論フレームワークを提案する。
実験結果は、4つのタスクでAccとF1のスコアが一貫した改善を示した。
- 参考スコア(独自算出の注目度): 4.365372866350885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotion understanding includes basic tasks (e.g., sentiment/emotion classification) and advanced tasks (e.g., sarcasm/humor detection). Current methods rely on fixed-length CoT reasoning, failing to adapt to the varying complexity of emotions. We propose a task-adaptive reasoning framework that employs DeepSeek-R1 to generate variable-length reasoning chains for different emotion tasks. By combining fine-tuning with reinforcement learning, we design a composite reward function that balances four objectives: prediction accuracy, adaptive reasoning depth control, structural diversity in reasoning paths, and suppression of repetitive logic. This approach achieves dynamic context-sensitive inference while enabling LLMs to autonomously develop deep reasoning capabilities. Experimental results demonstrate consistent improvements in both Acc and F1 scores across four tasks: emotion, sentiment, humor, and sarcasm. Notably, peak enhancements reached 3.56% F1 (2.76% Acc) for basic tasks and 37.95% F1 (23.14% Acc) for advanced tasks. Our work bridges rigid CoT reasoning and emotional complexity through adaptive-depth analysis.
- Abstract(参考訳): 感情理解には、基本的なタスク(例えば、感情/感情分類)と高度なタスク(例えば、sarcasm/mor detection)が含まれる。
現在の手法は一定長のCoT推論に依存しており、感情の複雑さに適応できない。
本稿では,DeepSeek-R1を用いたタスク適応推論フレームワークを提案する。
微調整と強化学習を組み合わせることで、予測精度、適応推論深度制御、推論経路の構造的多様性、繰り返し論理の抑制の4つの目的をバランスさせる複合報酬関数を設計する。
このアプローチは、LLMが自律的に深い推論機能を開発することを可能にしながら、動的文脈依存推論を実現する。
実験結果は、感情、感情、ユーモア、皮肉の4つのタスクにまたがって、AccとF1のスコアが一貫した改善を示した。
特に、ピーク拡張は基本的なタスクで3.56% F1 (2.76% Acc)、高度なタスクで37.95% F1 (23.14% Acc)に達した。
当社の作業は、適応深度分析を通じて、厳密なCoT推論と感情的な複雑さを橋渡しします。
関連論文リスト
- Incentivizing Dual Process Thinking for Efficient Large Language Model Reasoning [75.04643265875072]
大規模推論モデル(LRM)は複雑な推論タスクに対して強い性能を示してきたが、しばしば過度に考えることに悩まされている。
認知科学における二重プロセス理論に着想を得て,適応認知政策最適化を提案する。
ACPOは、適応的な認知アロケーションと動的システムスイッチによって、LRMの効率的な推論を可能にする。
論文 参考訳(メタデータ) (2025-05-22T07:15:08Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - CDL: Curriculum Dual Learning for Emotion-Controllable Response
Generation [22.456627534121488]
カリキュラムデュアルラーニング(CDL)という新しいフレームワークを提案する。
CDLは、感情制御可能な応答生成を2つのタスクに拡張し、代わりに感情応答と感情クエリを生成する。
CDLは、コヒーレンス、多様性、および感情要因との関係において、ベースラインを著しく上回る。
論文 参考訳(メタデータ) (2020-05-01T12:16:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。