論文の概要: Linking Perception, Confidence and Accuracy in MLLMs
- arxiv url: http://arxiv.org/abs/2603.12149v1
- Date: Thu, 12 Mar 2026 16:47:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.230149
- Title: Linking Perception, Confidence and Accuracy in MLLMs
- Title(参考訳): MLLMにおけるリンク認識・信頼・正確性
- Authors: Yuetian Du, Yucheng Wang, Rongyu Zhang, Zhijie Xu, Boyu Yang, Ming Kong, Jie Liu, Qiang Zhu,
- Abstract要約: 信頼駆動強化学習(CDRL)は、感度を高め、モデルの信頼性を堅牢に調整するために、オリジナルノイズイメージペアを使用する。
信頼性を考慮したテスト時間スケーリング(CA-TTS)は、信頼性信号によって導かれる自己整合性、自己回帰、視覚的自己チェックモジュールを動的に調整する。
統合されたフレームワークは、4つのベンチマークで一貫性のある8.8%のアップで、最先端の新たな結果を確立します。
- 参考スコア(独自算出の注目度): 15.540652692247098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in Multi-modal Large Language Models (MLLMs) have predominantly focused on enhancing visual perception to improve accuracy. However, a critical question remains unexplored: Do models know when they do not know? Through a probing experiment, we reveal a severe confidence miscalibration problem in MLLMs. To address this, we propose Confidence-Driven Reinforcement Learning (CDRL), which uses original-noise image pairs and a novel confidence-based reward to enhance perceptual sensitivity and robustly calibrate the model's confidence. Beyond training benefits, calibrated confidence enables more effective test-time scaling as a free lunch. We further propose Confidence-Aware Test-Time Scaling (CA-TTS), which dynamically coordinates Self-Consistency, Self-Reflection, and Visual Self-Check modules guided by confidence signals. An Expert Model acts in multiple roles (e.g., Planner, Critic, Voter) to schedule these modules and provide external verification. Our integrated framework establishes new state-of-the-art results with consistent 8.8% gains across four benchmarks. More ablation studies demonstrate the effectiveness of each module and scaling superiority.
- Abstract(参考訳): MLLM(Multi-modal Large Language Models)の最近の進歩は、視覚知覚の精度向上に重点を置いている。
しかし、重要な疑問は未解決のままである: モデルはいつそれを知らないのかを知っていますか?
探索実験により,MLLMの信頼性の重大な誤校正問題を明らかにする。
そこで本研究では,オリジナルノイズ画像ペアと新たな信頼に基づく報酬を用いた信頼駆動強化学習(CDRL,Confidence-Driven Reinforcement Learning)を提案する。
トレーニングのメリットに加えて、キャリブレーションされた信頼性は、無料ランチとしてより効果的なテストタイムスケーリングを可能にします。
さらに,信頼性信号によって誘導される自己整合性,自己回帰,視覚的自己チェックモジュールを動的に協調する信頼性対応テスト時間スケーリング(CA-TTS)を提案する。
エキスパートモデルが複数の役割(プランナー、批判、投票など)を担い、これらのモジュールをスケジュールし、外部の検証を提供する。
統合されたフレームワークは、4つのベンチマークで一貫性のある8.8%のアップで、最先端の新たな結果を確立します。
さらなるアブレーション研究は、各モジュールの有効性とスケーリング上の優位性を示している。
関連論文リスト
- Confidence Estimation for LLMs in Multi-turn Interactions [48.081802290688394]
この研究は、マルチターン相互作用における信頼度推定に関する最初の体系的研究である。
そこで我々は,2つの主要なデシラタに基礎を置く形式的評価枠組みを構築した。
我々の研究は、より信頼性が高く信頼性の高い会話エージェントを開発するための基礎的な方法論を提供する。
論文 参考訳(メタデータ) (2026-01-05T14:58:04Z) - BrowseConf: Confidence-Guided Test-Time Scaling for Web Agents [58.05949210993854]
本研究では,長期にわたる行動の後,言語化された信頼度スコアを用いて,検索エージェントが自身の信頼を伝達できるかどうかを検討する。
本研究では,信頼度スコアを用いて回答の質を判断し,信頼度レベルに達するまで再度試すテスト時間スケーリング(TTS)手法を提案する。
論文 参考訳(メタデータ) (2025-10-27T15:58:51Z) - Confidence as a Reward: Transforming LLMs into Reward Models [54.98336080630691]
Confidence-as-a-Reward (CRew) は、モデルの最終回答に対するトークンレベルの信頼を報酬のプロキシとして利用する、トレーニング不要の手法である。
CRew は MATH500 および RewardMATH ベンチマークにおいて,既存のトレーニングフリー報酬手法よりも優れていることを示す。
本稿では,信頼度スコアと正当性信号を組み合わせた選好データを構成する訓練戦略であるCRew-DPOを提案する。
論文 参考訳(メタデータ) (2025-10-15T12:51:47Z) - ConfTuner: Training Large Language Models to Express Their Confidence Verbally [58.63318088243125]
大規模言語モデル(LLM)は、科学、法律、医療といった高度な領域にますます展開されている。
LLMは、しばしば「過信」(overconfidence)として知られる、高い信頼で誤った答えを生成するために観察される。
論文 参考訳(メタデータ) (2025-08-26T09:25:32Z) - Verbalized Confidence Triggers Self-Verification: Emergent Behavior Without Explicit Reasoning Supervision [12.287123198288079]
大規模言語モデル(LLM)の安全な配置には不確実性校正が不可欠である
我々は,スカラー信頼ラベルのみを用いた教師付き微調整が,言語モデルの自己検証行動を引き出すのに十分であることがわかった。
キャリブレーションされた不確実性に基づいて,テスト時間スケーリングによる性能向上を図った簡易な再考手法を提案する。
論文 参考訳(メタデータ) (2025-06-04T08:56:24Z) - Trust, But Verify: A Self-Verification Approach to Reinforcement Learning with Verifiable Rewards [67.86091419220816]
大規模言語モデル(LLM)は複雑な推論において非常に有望である。
一般的な問題は表面的な自己回帰であり、モデルが自身の出力をしっかりと検証できない。
本稿では、RISE(Reinforce Reasoning with Self-Verification)という新しいオンラインRLフレームワークについて紹介する。
論文 参考訳(メタデータ) (2025-05-19T17:59:31Z) - Confidence Under the Hood: An Investigation into the Confidence-Probability Alignment in Large Language Models [14.5291643644017]
信頼性・確率アライメントの概念を紹介します。
モデルの内部と信頼感の一致を調査する。
分析したモデルのうち、OpenAIのGPT-4は信頼性と信頼性のアライメントが最強であった。
論文 参考訳(メタデータ) (2024-05-25T15:42:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。