論文の概要: DUAL: Dynamic Uncertainty-Aware Learning
- arxiv url: http://arxiv.org/abs/2506.03158v1
- Date: Wed, 21 May 2025 18:50:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-08 12:40:08.685955
- Title: DUAL: Dynamic Uncertainty-Aware Learning
- Title(参考訳): DUAL: 動的不確実性認識学習
- Authors: Jiahao Qin, Bei Peng, Feng Liu, Guangliang Cheng, Lu Zong,
- Abstract要約: 単一モーダルシナリオとマルチモーダルシナリオの両方において,機能不確実性を効果的に処理する統合フレームワークであるDynamicUncertainty-Aware Learning (DUAL)を提案する。
DUALは3つの重要なイノベーションを紹介している。ダイナミックな特徴の不確実性モデリング、適応的な分散-認識変調、不確実性-認識の相互関係である。
- 参考スコア(独自算出の注目度): 19.100858792977807
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models frequently encounter feature uncertainty in diverse learning scenarios, significantly impacting their performance and reliability. This challenge is particularly complex in multi-modal scenarios, where models must integrate information from different sources with inherent uncertainties. We propose Dynamic Uncertainty-Aware Learning (DUAL), a unified framework that effectively handles feature uncertainty in both single-modal and multi-modal scenarios. DUAL introduces three key innovations: Dynamic Feature Uncertainty Modeling, which continuously refines uncertainty estimates through joint consideration of feature characteristics and learning dynamics; Adaptive Distribution-Aware Modulation, which maintains balanced feature distributions through dynamic sample influence adjustment; and Uncertainty-aware Cross-Modal Relationship Learning, which explicitly models uncertainties in cross-modal interactions. Through extensive experiments, we demonstrate DUAL's effectiveness across multiple domains: in computer vision tasks, it achieves substantial improvements of 7.1% accuracy on CIFAR-10, 6.5% accuracy on CIFAR-100, and 2.3% accuracy on Tiny-ImageNet; in multi-modal learning, it demonstrates consistent gains of 4.1% accuracy on CMU-MOSEI and 2.8% accuracy on CMU-MOSI for sentiment analysis, while achieving 1.4% accuracy improvements on MISR. The code will be available on GitHub soon.
- Abstract(参考訳): ディープラーニングモデルは、さまざまな学習シナリオで機能の不確実性に頻繁に遭遇し、そのパフォーマンスと信頼性に大きな影響を与えます。
この課題は、モデルが固有の不確実性を持つ異なるソースからの情報を統合しなければならないマルチモーダルシナリオにおいて特に複雑である。
単一モーダルシナリオとマルチモーダルシナリオの両方において,機能不確実性を効果的に処理する統合フレームワークであるDynamic Uncertainty-Aware Learning (DUAL)を提案する。
動的特徴不確実性モデリング(Dynamic Feature Uncertainty Modeling)は、特徴特性と学習力学の連関による不確実性推定を継続的に洗練するものであり、動的サンプルの影響調整を通じてバランスの取れた特徴分布を維持するAdaptive Distribution-Aware Modulation(Adaptive Distribution-Aware Modulation)と、相互モーダル相互作用における不確かさを明示的にモデル化する不確実性認識相互関係学習(Uncertainty-aware Cross-Modal Relationship Learning)である。
コンピュータビジョンタスクではCIFAR-10の精度7.1%、CIFAR-100の精度6.5%、Tiny-ImageNetの精度2.3%、マルチモーダル学習ではCMU-MOSEIの精度4.1%、感情分析の精度2.8%、MISRの精度1.4%である。
コードは近いうちにGitHubで公開される。
関連論文リスト
- Modeling Behavior Change for Multi-model At-Risk Students Early Prediction (extended version) [10.413751893289056]
現在のモデルは、単純かつ離散的な行動パターンを通じて、一貫してパフォーマンスの悪い学生を識別する。
我々は,中学校の教師の発言データと数値グレードデータを利用した,革新的な予測モデルであるMultimodal-ChangePoint Detection (MCPD)を開発した。
本モデルでは,ベースラインアルゴリズムの平均性能を約5~10%向上させるとともに,70~75%の精度範囲を達成している。
論文 参考訳(メタデータ) (2025-02-19T11:16:46Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - UncertaintyRAG: Span-Level Uncertainty Enhanced Long-Context Modeling for Retrieval-Augmented Generation [93.38604803625294]
IncertaintyRAG, a novel approach for long-context Retrieval-Augmented Generation (RAG)について紹介する。
我々は、SNR(Signal-to-Noise Ratio)ベースのスパン不確実性を用いて、テキストチャンク間の類似性を推定する。
不確かさRAGはLLaMA-2-7Bでベースラインを2.03%上回り、最先端の結果を得る。
論文 参考訳(メタデータ) (2024-10-03T17:39:38Z) - Towards Understanding Variants of Invariant Risk Minimization through the Lens of Calibration [0.6906005491572401]
本稿では,Information BottleneckをベースとしたITMが,異なる環境における一貫したキャリブレーションを実現することを示す。
私たちの経験的証拠は、環境全体にわたって一貫した校正を示すモデルも十分に校正されていることを示している。
論文 参考訳(メタデータ) (2024-01-31T02:08:43Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Mutual Information-calibrated Conformal Feature Fusion for
Uncertainty-Aware Multimodal 3D Object Detection at the Edge [1.7898305876314982]
3次元(3D)物体検出は、重要なロボティクスの操作であり、大きな進歩を遂げている。
本研究は,共形推論の原理と情報理論測度を統合し,モンテカルロ自由な不確実性推定を行う。
このフレームワークは、KITTIの3Dオブジェクト検出ベンチマークにおいて、不確実性に気付かない類似のメソッドと同等またはより良いパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-09-18T09:02:44Z) - Trusted Multi-View Classification with Dynamic Evidential Fusion [73.35990456162745]
信頼型マルチビュー分類(TMC)と呼ばれる新しいマルチビュー分類アルゴリズムを提案する。
TMCは、様々な視点をエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
理論的および実験的結果は、精度、堅牢性、信頼性において提案されたモデルの有効性を検証した。
論文 参考訳(メタデータ) (2022-04-25T03:48:49Z) - Trustworthy Multimodal Regression with Mixture of Normal-inverse Gamma
Distributions [91.63716984911278]
このアルゴリズムは、異なるモードの適応的統合の原理における不確かさを効率的に推定し、信頼できる回帰結果を生成する。
実世界のデータと実世界のデータの両方に対する実験結果から,多モード回帰タスクにおける本手法の有効性と信頼性が示された。
論文 参考訳(メタデータ) (2021-11-11T14:28:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。