論文の概要: ELFNet: Evidential Local-global Fusion for Stereo Matching
- arxiv url: http://arxiv.org/abs/2308.00728v1
- Date: Tue, 1 Aug 2023 15:51:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 14:59:26.421972
- Title: ELFNet: Evidential Local-global Fusion for Stereo Matching
- Title(参考訳): ELFNet: ステレオマッチングのためのEvidential Local-global Fusion
- Authors: Jieming Lou, Weide Liu, Zhuo Chen, Fayao Liu, and Jun Cheng
- Abstract要約: ステレオマッチングのためのtextbfEvidential textbfLocal-global textbfFusion (ELF) フレームワークを提案する。
不確実性推定と信頼に値する頭部との信頼を意識した融合の両方を付与する。
- 参考スコア(独自算出の注目度): 17.675146012208124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although existing stereo matching models have achieved continuous
improvement, they often face issues related to trustworthiness due to the
absence of uncertainty estimation. Additionally, effectively leveraging
multi-scale and multi-view knowledge of stereo pairs remains unexplored. In
this paper, we introduce the \textbf{E}vidential \textbf{L}ocal-global
\textbf{F}usion (ELF) framework for stereo matching, which endows both
uncertainty estimation and confidence-aware fusion with trustworthy heads.
Instead of predicting the disparity map alone, our model estimates an
evidential-based disparity considering both aleatoric and epistemic
uncertainties. With the normal inverse-Gamma distribution as a bridge, the
proposed framework realizes intra evidential fusion of multi-level predictions
and inter evidential fusion between cost-volume-based and transformer-based
stereo matching. Extensive experimental results show that the proposed
framework exploits multi-view information effectively and achieves
state-of-the-art overall performance both on accuracy and cross-domain
generalization.
The codes are available at https://github.com/jimmy19991222/ELFNet.
- Abstract(参考訳): 既存のステレオマッチングモデルは継続的に改善されているが、不確実性推定の欠如による信頼性の問題に直面することが多い。
さらに、ステレオペアのマルチスケールとマルチビューの知識を効果的に活用する試みは未定である。
本稿では,不確実性推定と信頼度認識の融合を両立させるステレオマッチングのための \textbf{e}vidential \textbf{l}ocal-global \textbf{f}usion (elf) フレームワークを提案する。
本モデルでは, 偏差マップのみを推定する代わりに, 腹腔内およびてんかんの両不確かさを考慮し, 明らか性に基づく偏差を推定する。
通常の逆ガンマ分布をブリッジとして,多層予測の顕在的融合と,コスト-ボリュームベースおよびトランスフォーマーベースステレオマッチングの顕在的融合を実現する。
広範な実験結果から,提案フレームワークはマルチビュー情報を効果的に活用し,精度とクロスドメイン一般化の両方において最先端の総合的性能を実現することが示された。
コードはhttps://github.com/jimmy 19991222/ELFNetで公開されている。
関連論文リスト
- Confidence-aware multi-modality learning for eye disease screening [58.861421804458395]
眼疾患スクリーニングのための新しい多モード顕在核融合パイプラインを提案する。
モダリティごとに信頼度を測り、マルチモダリティ情報をエレガントに統合する。
パブリックデータセットと内部データセットの両方の実験結果は、我々のモデルが堅牢性に優れていることを示している。
論文 参考訳(メタデータ) (2024-05-28T13:27:30Z) - MERIT: Multi-view Evidential learning for Reliable and Interpretable liver fibrosis sTaging [29.542924813666698]
本稿では,MERITと呼ばれる顕在的学習に基づく新しいマルチビュー手法を提案する。
MERITは、予測の不確実性を可能とし、信頼性を高め、論理ベースの組み合わせルールを用いて解釈性を向上させる。
その結果、提案したMERITの有効性を示し、信頼性を強調し、アドホックとポストホックの両方の解釈性を提供する。
論文 参考訳(メタデータ) (2024-05-05T12:52:28Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Integrating Large Pre-trained Models into Multimodal Named Entity
Recognition with Evidential Fusion [31.234455370113075]
本稿では,MNERタスクに不確実性推定を取り入れ,信頼に値する予測を生成することを提案する。
提案アルゴリズムは,各モードの分布を正規逆ガンマ分布としてモデル化し,それらを統一分布に融合する。
2つのデータセットの実験により,提案手法がベースラインを上回り,新しい最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2023-06-29T14:50:23Z) - Cross-Attention is Not Enough: Incongruity-Aware Dynamic Hierarchical
Fusion for Multimodal Affect Recognition [69.32305810128994]
モダリティ間の同調性は、特に認知に影響を及ぼすマルチモーダル融合の課題となる。
本稿では,動的モダリティゲーティング(HCT-DMG)を用いた階層型クロスモーダルトランスを提案する。
HCT-DMG: 1) 従来のマルチモーダルモデルを約0.8Mパラメータで上回り、2) 不整合が認識に影響を及ぼすハードサンプルを認識し、3) 潜在レベルの非整合性をクロスモーダルアテンションで緩和する。
論文 参考訳(メタデータ) (2023-05-23T01:24:15Z) - Trusted Multi-View Classification with Dynamic Evidential Fusion [73.35990456162745]
信頼型マルチビュー分類(TMC)と呼ばれる新しいマルチビュー分類アルゴリズムを提案する。
TMCは、様々な視点をエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
理論的および実験的結果は、精度、堅牢性、信頼性において提案されたモデルの有効性を検証した。
論文 参考訳(メタデータ) (2022-04-25T03:48:49Z) - Trustworthy Multimodal Regression with Mixture of Normal-inverse Gamma
Distributions [91.63716984911278]
このアルゴリズムは、異なるモードの適応的統合の原理における不確かさを効率的に推定し、信頼できる回帰結果を生成する。
実世界のデータと実世界のデータの両方に対する実験結果から,多モード回帰タスクにおける本手法の有効性と信頼性が示された。
論文 参考訳(メタデータ) (2021-11-11T14:28:12Z) - Trusted Multi-View Classification [76.73585034192894]
本稿では,信頼された多視点分類と呼ばれる新しい多視点分類手法を提案する。
さまざまなビューをエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
提案アルゴリズムは,分類信頼性とロバスト性の両方を促進するために,複数のビューを併用する。
論文 参考訳(メタデータ) (2021-02-03T13:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。