論文の概要: EmoCaliber: Advancing Reliable Visual Emotion Comprehension via Confidence Verbalization and Calibration
- arxiv url: http://arxiv.org/abs/2512.15528v1
- Date: Wed, 17 Dec 2025 15:30:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.04259
- Title: EmoCaliber: Advancing Reliable Visual Emotion Comprehension via Confidence Verbalization and Calibration
- Title(参考訳): EmoCaliber: 信頼度とキャリブレーションによる信頼性の高い視覚的感情理解の促進
- Authors: Daiqing Wu, Dongbao Yang, Can Ma. Yu Zhou,
- Abstract要約: Visual EmotionBench (VEC) は、感情の極性や感情のカテゴリをイメージに埋め込まれた感情的な手がかりから推測することを目的としている。
構造化推論を段階的に支援し、信頼を言葉で表現し、信頼表現を校正する3段階のトレーニングフレームワークを導入する。
EmoCaliberは、感情予測と信頼推定の両方において、既存の方法に対する全体的な優位性を実証している。
- 参考スコア(独自算出の注目度): 8.485394614072028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual Emotion Comprehension (VEC) aims to infer sentiment polarities or emotion categories from affective cues embedded in images. In recent years, Multimodal Large Language Models (MLLMs) have established a popular paradigm in VEC, leveraging their generalizability to unify VEC tasks defined under diverse emotion taxonomies. While this paradigm achieves notable success, it typically formulates VEC as a deterministic task, requiring the model to output a single, definitive emotion label for each image. Such a formulation insufficiently accounts for the inherent subjectivity of emotion perception, overlooking alternative interpretations that may be equally plausible to different viewers. To address this limitation, we propose equipping MLLMs with capabilities to verbalize their confidence in emotion predictions. This additional signal provides users with an estimate of both the plausibility of alternative interpretations and the MLLMs' self-assessed competence, thereby enhancing reliability in practice. Building on this insight, we introduce a three-stage training framework that progressively endows with structured reasoning, teaches to verbalize confidence, and calibrates confidence expression, culminating in EmoCaliber, a confidence-aware MLLM for VEC. Through fair and comprehensive evaluations on the unified benchmark VECBench, EmoCaliber demonstrates overall superiority against existing methods in both emotion prediction and confidence estimation. These results validate the effectiveness of our approach and mark a feasible step toward more reliable VEC systems. Project page: https://github.com/wdqqdw/EmoCaliber.
- Abstract(参考訳): 視覚的感情理解(VEC)は、感情の極性や感情のカテゴリをイメージに埋め込まれた感情的な手がかりから推測することを目的としている。
近年,マルチモーダル・大規模言語モデル (MLLM) はVECにおいて一般的なパラダイムを確立し,様々な感情分類の下で定義されたVECタスクを統一する一般化性を活用している。
このパラダイムは顕著な成功を収めるが、通常、VECを決定論的タスクとして定式化し、各画像に対して1つの決定的な感情ラベルを出力する必要がある。
このような定式化は感情知覚の本質的な主観性を十分に説明しておらず、異なる視聴者に等しく当てはまるかもしれない別の解釈を見越す。
この制限に対処するために、感情予測における彼らの自信を言葉で表す能力を備えたMLLMを提案する。
この追加信号は、代替解釈の妥当性とMLLMの自己評価能力の両方を推定し、実際に信頼性を高める。
この知見に基づいて、構造化推論を段階的に支援し、自信を言語化し、信頼表現を校正する3段階のトレーニングフレームワークを導入し、VECのための信頼を意識したMLLMであるEmoCaliberを開発した。
統一ベンチマークVECBenchの公平かつ包括的な評価を通じて、EmoCaliberは感情予測と信頼推定の両方において既存の方法に対する全体的な優位性を示す。
これらの結果は,本手法の有効性を検証し,より信頼性の高いVECシステムに向けた実現可能なステップを示すものである。
プロジェクトページ: https://github.com/wdqqdw/EmoCaliber.com
関連論文リスト
- Emotion-Enhanced Multi-Task Learning with LLMs for Aspect Category Sentiment Analysis [3.605122187208041]
本稿では,感情極性とカテゴリー固有の感情を学習する,感情強化型ACSAフレームワークを提案する。
我々のアプローチは、各アスペクトカテゴリに対して、モデルが感情的な記述を生成することを可能にする。
また,Valence-Arousal-Dominance(VAD)次元フレームワークに基づく感情改善機構も導入する。
論文 参考訳(メタデータ) (2025-11-24T13:52:42Z) - Cognitive Inception: Agentic Reasoning against Visual Deceptions by Injecting Skepticism [81.39177645864757]
完全推論に基づくエージェント推論フレームワークであるtextbfInception を提案する。
私たちの知る限りでは、AIGCの視覚的騙しに対する完全な推論ベースのフレームワークとしてはこれが初めてです。
論文 参考訳(メタデータ) (2025-11-21T05:13:30Z) - TiCAL:Typicality-Based Consistency-Aware Learning for Multimodal Emotion Recognition [31.4260327895046]
マルチモーダル感情認識は、視覚、聴覚、テキストなどの不均一なモダリティを統合することで、人間の感情状態を正確に識別することを目的としている。
既存のアプローチは主に、モデルトレーニングを監督するために統一された感情ラベルに依存しており、しばしば重要な課題であるモーダル間感情衝突を見落としている。
我々は,人間の感情知覚の段階的特性に着想を得た,定型性に基づく連続型マルチモーダル感情認識(TiCAL)を提案する。
論文 参考訳(メタデータ) (2025-11-19T03:49:22Z) - Emotion-Coherent Reasoning for Multimodal LLMs via Emotional Rationale Verifier [53.55996102181836]
本稿では,感情関係検証器 (ERV) と説明リワードを提案する。
本手法は,対象感情と明確に一致した推論をモデルに導出する。
我々のアプローチは、説明と予測の整合性を高めるだけでなく、MLLMが感情的に一貫性があり、信頼できる対話を実現するのにも役立ちます。
論文 参考訳(メタデータ) (2025-10-27T16:40:17Z) - Customizing Visual Emotion Evaluation for MLLMs: An Open-vocabulary, Multifaceted, and Scalable Approach [29.502292089901825]
この矛盾は, 既存の評価手法の制約に起因していると論じる。
これらの制約を克服する感情文判断タスクを提案する。
人間の努力を最小限に抑えて感情中心の文を効率的に構築する自動パイプラインを考案する。
論文 参考訳(メタデータ) (2025-09-26T06:30:39Z) - Enhancing Multi-Agent Debate System Performance via Confidence Expression [55.34012400580016]
マルチエージェント・ディベート(MAD)システムは人間の議論をシミュレートし、タスク性能を向上させる。
一部の大規模言語モデル(LLM)は、特定のタスクに対して優れた知識や推論能力を持っているが、議論の間、この利点を明確に伝えるのに苦労している。
不適切な信頼表現は、MADシステムのエージェントが、不適切な信念を頑固に維持するか、あるいは最適でない答えに早急に収束させる可能性がある。
我々は,議論プロセス全体を通して信頼表現を統合するMADフレームワークConfMADを開発した。
論文 参考訳(メタデータ) (2025-09-17T14:34:27Z) - MME-Emotion: A Holistic Evaluation Benchmark for Emotional Intelligence in Multimodal Large Language Models [108.61337743051483]
MME-Emotionは,MLLMの感情的理解と推論能力の両方を評価するシステムベンチマークである。
MME-Emotionには6000以上のキュレートされたビデオクリップとタスク固有の質問回答(QA)ペアが含まれており、8つの感情的なタスクを定式化するための広いシナリオにまたがっている。
マルチエージェントシステムフレームワークを通じて分析された、感情認識と推論のためのハイブリッドメトリクスを備えた総合評価スイートが組み込まれている。
論文 参考訳(メタデータ) (2025-08-11T03:14:55Z) - Leveraging Label Potential for Enhanced Multimodal Emotion Recognition [6.725011823614421]
マルチモーダル感情認識(MER)は、感情状態を正確に予測するために様々なモダリティを統合する。
本稿では,この制限を克服するために,ラベル信号誘導マルチモーダル感情認識(LSGMER)と呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2025-04-07T15:00:34Z) - MR-GSM8K: A Meta-Reasoning Benchmark for Large Language Model Evaluation [60.65820977963331]
大規模言語モデル(LLM)のための新しい評価パラダイムを導入する。
このパラダイムは、しばしば推論プロセスを無視する結果指向の評価から、より包括的な評価へと重点を移す。
GSM8Kデータセットにこのパラダイムを適用し,MR-GSM8Kベンチマークを開発した。
論文 参考訳(メタデータ) (2023-12-28T15:49:43Z) - MEmoBERT: Pre-training Model with Prompt-based Learning for Multimodal
Emotion Recognition [118.73025093045652]
マルチモーダル感情認識のための事前学習モデル textbfMEmoBERT を提案する。
従来の「訓練前、微妙な」パラダイムとは異なり、下流の感情分類タスクをマスク付きテキスト予測として再構成するプロンプトベースの手法を提案する。
提案するMEMOBERTは感情認識性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-10-27T09:57:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。