論文の概要: Emotion-o1: Adaptive Long Reasoning for Emotion Understanding in LLMs
- arxiv url: http://arxiv.org/abs/2505.22548v2
- Date: Wed, 06 Aug 2025 03:38:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 15:43:08.798389
- Title: Emotion-o1: Adaptive Long Reasoning for Emotion Understanding in LLMs
- Title(参考訳): Emotion-o1:LLMにおける感情理解のための適応長推論
- Authors: Changhao Song, Yazhou Zhang, Hui Gao, Kaiyun Huang, Peng Zhang,
- Abstract要約: 本稿では,感情タスクの複雑さに基づいて推論長を動的に調整する適応型CoTフレームワークであるEmotion-o1を提案する。
感情-o1は、推論指向のLDMから適応的なCoTパターンを蒸留し、その後、教師付き微調整と強化学習によって訓練される。
4つの感情課題の実験的結果が浮かび上がった。
Emotion-o1は背骨よりも大幅に改善し、F1スコアは10%(感覚)、5%(感情)、8%(Humor)、27%(Sarcasm)となった。
- 参考スコア(独自算出の注目度): 5.098933455438321
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Long chain-of-thought (CoT) reasoning has shown great promise in enhancing the emotion understanding performance of large language models (LLMs). However, current fixed-length CoT methods struggle to balance reasoning depth and efficiency. Simple tasks (e.g., sentiment classification) are over-reasoned, while complex tasks (e.g., sarcasm understanding) lack depth. To fill this gap, we present Emotion-o1, an adaptive CoT framework that dynamically adjusts reasoning length based on emotion-task complexity. Emotion-o1 is trained by distilling adaptive CoT patterns from a reasoning-oriented LLM, followed by supervised fine-tuning and reinforcement learning with a four-part reward targeting accuracy, brevity, structure, and redundancy. Experimental results on four emotion tasks highlight: (1) Emotion-o1 demonstrates significant improvements over its backbone, with F1 score increases of 10%(Sentiment), 5%(Emotion), 18%(Humor), and 27%(Sarcasm). (2) In sentiment and sarcasm tasks, our 8B model demonstrates superior performance against advanced LLMs, outperforming Grok-3 by 1.1% and Claude-3.7 by 2%. (3) The framework maintains accuracy while reducing reasoning length by 83% compared to OpenAI-o1, demonstrating effective precision-efficiency optimization. Emotion-o1 effectively balances reasoning depth and efficiency for emotion understanding in LLMs.
- Abstract(参考訳): ロングチェーン・オブ・シークレット(CoT)推論は,大規模言語モデル(LLM)の感情理解性能を高める上で大きな可能性を秘めている。
しかし、現在の固定長CoT法は、推論の深さと効率のバランスをとるのに苦労している。
単純なタスク(例えば、感情分類)は過剰に推論されるが、複雑なタスク(例えば、皮肉な理解)は深さを欠いている。
このギャップを埋めるために,感情タスクの複雑さに基づいて推論長を動的に調整する適応型CoTフレームワークであるEmotion-o1を提案する。
感情-o1は、推論指向のLLMから適応的なCoTパターンを蒸留し、その後、正確さ、簡潔さ、構造、冗長性をターゲットとした4部からなる微調整と強化学習を指導することで訓練される。
1)感情-o1は背骨に顕著な改善を示し,F1スコアは10%(感覚),5%(感情),18%(Humor),27%(Sarcasm)の上昇を示した。
2)感情・皮肉タスクでは,8Bモデルでは,Grok-3を1.1%,Claude-3.7を2%,高度なLCMに対して優れた性能を示した。
3) このフレームワークは,OpenAI-o1と比較して推論長を83%削減しながら精度を維持し,有効精度・効率の最適化を実証する。
Emotion-o1は、LLMにおける感情理解のための推論の深さと効率を効果的にバランスさせる。
関連論文リスト
- RLVER: Reinforcement Learning with Verifiable Emotion Rewards for Empathetic Agents [67.46032287312339]
大規模言語モデル(LLM)は論理的およびアルゴリズム的推論において優れているが、彼らの感情的知性(EQ)は認知能力よりもはるかに遅れている。
シミュレーションユーザによる検証可能な感情報酬を活用する,最初のエンドツーエンド強化学習フレームワークであるRLVERを紹介する。
以上の結果から,RLVERは感情的知的で幅広い言語エージェントへの実践的な経路であることが示唆された。
論文 参考訳(メタデータ) (2025-07-03T18:33:18Z) - Truly Assessing Fluid Intelligence of Large Language Models through Dynamic Reasoning Evaluation [75.26829371493189]
大きな言語モデル(LLM)は、人間のような思考を反映する印象的な推論能力を示している。
既存の推論ベンチマークでは、ドメイン固有の知識(結晶化インテリジェンス)に焦点を当てるか、解釈可能性に欠ける。
階層的認知フレームワークを基盤とした動的推論評価ベンチマークであるDRE-Benchを提案する。
論文 参考訳(メタデータ) (2025-06-03T09:01:08Z) - Incentivizing Dual Process Thinking for Efficient Large Language Model Reasoning [75.04643265875072]
大規模推論モデル(LRM)は複雑な推論タスクに対して強い性能を示してきたが、しばしば過度に考えることに悩まされている。
認知科学における二重プロセス理論に着想を得て,適応認知政策最適化を提案する。
ACPOは、適応的な認知アロケーションと動的システムスイッチによって、LRMの効率的な推論を可能にする。
論文 参考訳(メタデータ) (2025-05-22T07:15:08Z) - Do Large Language Models Possess Sensitive to Sentiment? [18.88126980975737]
大規模言語モデル(LLM)は、最近、言語理解における異常な能力を示した。
本稿では,LLMがテキストモーダルの感情を検知し,反応する能力について検討する。
論文 参考訳(メタデータ) (2024-09-04T01:40:20Z) - SarcasmBench: Towards Evaluating Large Language Models on Sarcasm Understanding [19.412462224847086]
異なるプロンプト手法を用いて,広く使用されている6つのベンチマークデータセットの評価を行った。
GPT-4 は様々なプロンプト法で他の LLM よりも一貫して著しく優れている。
ゼロショットIOプロンプト法は、ゼロショットIOと少数ショットCoTという2つの方法より優れている。
論文 参考訳(メタデータ) (2024-08-21T03:59:51Z) - RVISA: Reasoning and Verification for Implicit Sentiment Analysis [18.836998294161834]
暗黙の感情分析(ISA)は、表現に有能なキュー語が欠如していることで大きな課題となる。
本研究では,DO LLMの生成能力とED LLMの推論能力を利用した2段階推論フレームワークであるRVISAを提案する。
論文 参考訳(メタデータ) (2024-07-02T15:07:54Z) - Think out Loud: Emotion Deducing Explanation in Dialogues [57.90554323226896]
対話における感情推論(Emotion Deducing Explanation in Dialogues)を提案する。
EDENは感情と原因を明確な考え方で認識する。
大規模言語モデル(LLM)が感情や原因をよりよく認識するのに役立ちます。
論文 参考訳(メタデータ) (2024-06-07T08:58:29Z) - E-ICL: Enhancing Fine-Grained Emotion Recognition through the Lens of Prototype Theory [21.54245518795988]
本稿では,プロトタイプ理論の観点からICLの性能低下の原因を明らかにする。
感情認識のための感情文脈学習法(E-ICL)を提案する。
EDOS, Empathetic-Dialogues, EmpatheticIntent, GoEmotionsの詳細な感情データセット実験により, E-ICLが優れた感情予測性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-06-04T10:59:43Z) - ECR-Chain: Advancing Generative Language Models to Better Emotion-Cause Reasoners through Reasoning Chains [61.50113532215864]
CEE(Causal Emotion Entailment)は、ターゲット発話で表現される感情を刺激する会話における因果発話を特定することを目的としている。
CEEにおける現在の研究は、主に会話のセマンティックな相互作用と感情的な相互作用をモデル化することに焦点を当てている。
本研究では,会話中の感情表現から刺激を推測するために,ステップバイステップの推論手法である感情・因果関係(ECR-Chain)を導入する。
論文 参考訳(メタデータ) (2024-05-17T15:45:08Z) - The Strong Pull of Prior Knowledge in Large Language Models and Its Impact on Emotion Recognition [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理のための強力なパラダイムとして登場した。
LLMには、感情認識において強いが矛盾する先行性があり、その予測に影響を及ぼすことが示される。
以上の結果から,ICLをより大きなLCMで事前学習領域外の情動中心タスクに使用する場合,注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:07:32Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - CDL: Curriculum Dual Learning for Emotion-Controllable Response
Generation [22.456627534121488]
カリキュラムデュアルラーニング(CDL)という新しいフレームワークを提案する。
CDLは、感情制御可能な応答生成を2つのタスクに拡張し、代わりに感情応答と感情クエリを生成する。
CDLは、コヒーレンス、多様性、および感情要因との関係において、ベースラインを著しく上回る。
論文 参考訳(メタデータ) (2020-05-01T12:16:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。