論文の概要: Emotion-o1: Adaptive Long Reasoning for Emotion Understanding in LLMs
- arxiv url: http://arxiv.org/abs/2505.22548v1
- Date: Wed, 28 May 2025 16:32:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.729803
- Title: Emotion-o1: Adaptive Long Reasoning for Emotion Understanding in LLMs
- Title(参考訳): Emotion-o1:LLMにおける感情理解のための適応長推論
- Authors: Changhao Song, Yazhou Zhang, Peng Zhang,
- Abstract要約: 本稿では,DeepSeek-R1を用いたタスク適応推論フレームワークを提案する。
実験結果は、4つのタスクでAccとF1のスコアが一貫した改善を示した。
- 参考スコア(独自算出の注目度): 4.365372866350885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotion understanding includes basic tasks (e.g., sentiment/emotion classification) and advanced tasks (e.g., sarcasm/humor detection). Current methods rely on fixed-length CoT reasoning, failing to adapt to the varying complexity of emotions. We propose a task-adaptive reasoning framework that employs DeepSeek-R1 to generate variable-length reasoning chains for different emotion tasks. By combining fine-tuning with reinforcement learning, we design a composite reward function that balances four objectives: prediction accuracy, adaptive reasoning depth control, structural diversity in reasoning paths, and suppression of repetitive logic. This approach achieves dynamic context-sensitive inference while enabling LLMs to autonomously develop deep reasoning capabilities. Experimental results demonstrate consistent improvements in both Acc and F1 scores across four tasks: emotion, sentiment, humor, and sarcasm. Notably, peak enhancements reached 3.56% F1 (2.76% Acc) for basic tasks and 37.95% F1 (23.14% Acc) for advanced tasks. Our work bridges rigid CoT reasoning and emotional complexity through adaptive-depth analysis.
- Abstract(参考訳): 感情理解には、基本的なタスク(例えば、感情/感情分類)と高度なタスク(例えば、sarcasm/mor detection)が含まれる。
現在の手法は一定長のCoT推論に依存しており、感情の複雑さに適応できない。
本稿では,DeepSeek-R1を用いたタスク適応推論フレームワークを提案する。
微調整と強化学習を組み合わせることで、予測精度、適応推論深度制御、推論経路の構造的多様性、繰り返し論理の抑制の4つの目的をバランスさせる複合報酬関数を設計する。
このアプローチは、LLMが自律的に深い推論機能を開発することを可能にしながら、動的文脈依存推論を実現する。
実験結果は、感情、感情、ユーモア、皮肉の4つのタスクにまたがって、AccとF1のスコアが一貫した改善を示した。
特に、ピーク拡張は基本的なタスクで3.56% F1 (2.76% Acc)、高度なタスクで37.95% F1 (23.14% Acc)に達した。
当社の作業は、適応深度分析を通じて、厳密なCoT推論と感情的な複雑さを橋渡しします。
関連論文リスト
- RLVER: Reinforcement Learning with Verifiable Emotion Rewards for Empathetic Agents [67.46032287312339]
大規模言語モデル(LLM)は論理的およびアルゴリズム的推論において優れているが、彼らの感情的知性(EQ)は認知能力よりもはるかに遅れている。
シミュレーションユーザによる検証可能な感情報酬を活用する,最初のエンドツーエンド強化学習フレームワークであるRLVERを紹介する。
以上の結果から,RLVERは感情的知的で幅広い言語エージェントへの実践的な経路であることが示唆された。
論文 参考訳(メタデータ) (2025-07-03T18:33:18Z) - Truly Assessing Fluid Intelligence of Large Language Models through Dynamic Reasoning Evaluation [75.26829371493189]
大きな言語モデル(LLM)は、人間のような思考を反映する印象的な推論能力を示している。
既存の推論ベンチマークでは、ドメイン固有の知識(結晶化インテリジェンス)に焦点を当てるか、解釈可能性に欠ける。
階層的認知フレームワークを基盤とした動的推論評価ベンチマークであるDRE-Benchを提案する。
論文 参考訳(メタデータ) (2025-06-03T09:01:08Z) - Incentivizing Dual Process Thinking for Efficient Large Language Model Reasoning [75.04643265875072]
大規模推論モデル(LRM)は複雑な推論タスクに対して強い性能を示してきたが、しばしば過度に考えることに悩まされている。
認知科学における二重プロセス理論に着想を得て,適応認知政策最適化を提案する。
ACPOは、適応的な認知アロケーションと動的システムスイッチによって、LRMの効率的な推論を可能にする。
論文 参考訳(メタデータ) (2025-05-22T07:15:08Z) - Do Large Language Models Possess Sensitive to Sentiment? [18.88126980975737]
大規模言語モデル(LLM)は、最近、言語理解における異常な能力を示した。
本稿では,LLMがテキストモーダルの感情を検知し,反応する能力について検討する。
論文 参考訳(メタデータ) (2024-09-04T01:40:20Z) - SarcasmBench: Towards Evaluating Large Language Models on Sarcasm Understanding [19.412462224847086]
異なるプロンプト手法を用いて,広く使用されている6つのベンチマークデータセットの評価を行った。
GPT-4 は様々なプロンプト法で他の LLM よりも一貫して著しく優れている。
ゼロショットIOプロンプト法は、ゼロショットIOと少数ショットCoTという2つの方法より優れている。
論文 参考訳(メタデータ) (2024-08-21T03:59:51Z) - RVISA: Reasoning and Verification for Implicit Sentiment Analysis [18.836998294161834]
暗黙の感情分析(ISA)は、表現に有能なキュー語が欠如していることで大きな課題となる。
本研究では,DO LLMの生成能力とED LLMの推論能力を利用した2段階推論フレームワークであるRVISAを提案する。
論文 参考訳(メタデータ) (2024-07-02T15:07:54Z) - Think out Loud: Emotion Deducing Explanation in Dialogues [57.90554323226896]
対話における感情推論(Emotion Deducing Explanation in Dialogues)を提案する。
EDENは感情と原因を明確な考え方で認識する。
大規模言語モデル(LLM)が感情や原因をよりよく認識するのに役立ちます。
論文 参考訳(メタデータ) (2024-06-07T08:58:29Z) - E-ICL: Enhancing Fine-Grained Emotion Recognition through the Lens of Prototype Theory [21.54245518795988]
本稿では,プロトタイプ理論の観点からICLの性能低下の原因を明らかにする。
感情認識のための感情文脈学習法(E-ICL)を提案する。
EDOS, Empathetic-Dialogues, EmpatheticIntent, GoEmotionsの詳細な感情データセット実験により, E-ICLが優れた感情予測性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-06-04T10:59:43Z) - ECR-Chain: Advancing Generative Language Models to Better Emotion-Cause Reasoners through Reasoning Chains [61.50113532215864]
CEE(Causal Emotion Entailment)は、ターゲット発話で表現される感情を刺激する会話における因果発話を特定することを目的としている。
CEEにおける現在の研究は、主に会話のセマンティックな相互作用と感情的な相互作用をモデル化することに焦点を当てている。
本研究では,会話中の感情表現から刺激を推測するために,ステップバイステップの推論手法である感情・因果関係(ECR-Chain)を導入する。
論文 参考訳(メタデータ) (2024-05-17T15:45:08Z) - The Strong Pull of Prior Knowledge in Large Language Models and Its Impact on Emotion Recognition [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理のための強力なパラダイムとして登場した。
LLMには、感情認識において強いが矛盾する先行性があり、その予測に影響を及ぼすことが示される。
以上の結果から,ICLをより大きなLCMで事前学習領域外の情動中心タスクに使用する場合,注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:07:32Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - CDL: Curriculum Dual Learning for Emotion-Controllable Response
Generation [22.456627534121488]
カリキュラムデュアルラーニング(CDL)という新しいフレームワークを提案する。
CDLは、感情制御可能な応答生成を2つのタスクに拡張し、代わりに感情応答と感情クエリを生成する。
CDLは、コヒーレンス、多様性、および感情要因との関係において、ベースラインを著しく上回る。
論文 参考訳(メタデータ) (2020-05-01T12:16:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。