論文の概要: Trusted Unified Feature-Neighborhood Dynamics for Multi-View Classification
- arxiv url: http://arxiv.org/abs/2409.00755v1
- Date: Sun, 1 Sep 2024 15:48:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 09:11:31.833447
- Title: Trusted Unified Feature-Neighborhood Dynamics for Multi-View Classification
- Title(参考訳): マルチビュー分類のための信頼された一元的特徴境界ダイナミクス
- Authors: Haojian Huang, Chuanyu Qin, Zhe Liu, Kaijing Ma, Jin Chen, Han Fang, Chao Ban, Hao Sun, Zhongjiang He,
- Abstract要約: マルチビュー分類(MVC)は、異なる視点におけるドメインギャップと不整合に起因する固有の課題に直面している。
堅牢なMVCのためのTUNED(Trusted Unified Feature-Neighborhood Dynamics)モデルを提案する。
この手法は, 局所的およびグローバルな特徴近傍構造(F-N)を, 堅牢な意思決定のために効果的に統合する。
- 参考スコア(独自算出の注目度): 16.994115410201974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-view classification (MVC) faces inherent challenges due to domain gaps and inconsistencies across different views, often resulting in uncertainties during the fusion process. While Evidential Deep Learning (EDL) has been effective in addressing view uncertainty, existing methods predominantly rely on the Dempster-Shafer combination rule, which is sensitive to conflicting evidence and often neglects the critical role of neighborhood structures within multi-view data. To address these limitations, we propose a Trusted Unified Feature-NEighborhood Dynamics (TUNED) model for robust MVC. This method effectively integrates local and global feature-neighborhood (F-N) structures for robust decision-making. Specifically, we begin by extracting local F-N structures within each view. To further mitigate potential uncertainties and conflicts in multi-view fusion, we employ a selective Markov random field that adaptively manages cross-view neighborhood dependencies. Additionally, we employ a shared parameterized evidence extractor that learns global consensus conditioned on local F-N structures, thereby enhancing the global integration of multi-view features. Experiments on benchmark datasets show that our method improves accuracy and robustness over existing approaches, particularly in scenarios with high uncertainty and conflicting views. The code will be made available at https://github.com/JethroJames/TUNED.
- Abstract(参考訳): マルチビュー分類(MVC)は、異なる視点にまたがるドメインギャップや不整合に起因する固有の課題に直面し、しばしば融合過程における不確実性をもたらす。
Evidential Deep Learning (EDL) はビューの不確実性に対処するために有効であるが、既存の手法は主にDempster-Shaferの組み合わせルールに依存しており、これは矛盾する証拠に敏感であり、多視点データにおける近隣構造の重要な役割を無視することが多い。
このような制約に対処するため,我々はTUNED(Trusted Unified Feature-Neighborhood Dynamics)モデルを提案する。
この手法は, 局所的およびグローバルな特徴近傍構造(F-N)を, 堅牢な意思決定のために効果的に統合する。
具体的には、各ビュー内で局所的なF-N構造を抽出することから始める。
マルチビュー融合における潜在的な不確実性や矛盾を緩和するために、我々は、クロスビュー近傍の依存関係を適応的に管理する選択的なマルコフ確率場を用いる。
さらに,局所的なF-N構造に基づく大域的なコンセンサスを学習し,多視点特徴のグローバルな統合を向上する共通パラメータ化エビデンス抽出器を用いる。
ベンチマークデータセットを用いた実験により,提案手法は既存のアプローチ,特に不確実性と矛盾する視点のシナリオにおいて,精度と堅牢性を向上することが示された。
コードはhttps://github.com/JethroJames/TUNED.comで公開される。
関連論文リスト
- FlickerFusion: Intra-trajectory Domain Generalizing Multi-Agent RL [19.236153474365747]
既存のMARLアプローチは、トレーニングと推論の間に実体の数が一定であるという制限的な仮定に依存することが多い。
本稿では、ゼロショット・アウト・オブ・ドメイン(OOD)一般化の下での軌道内動的実体合成の課題に取り組む。
本稿では,MARLのバックボーン法に普遍的に適用可能な拡張手法として機能する新しいOOD一般化手法であるFlickerFusionを提案する。
論文 参考訳(メタデータ) (2024-10-21T10:57:45Z) - Evidential Deep Partial Multi-View Classification With Discount Fusion [24.139495744683128]
Evidential Deep partial Multi-View Classification (EDP-MVC) と呼ばれる新しいフレームワークを提案する。
欠落したビューに対処するためにK-means命令を使用し、マルチビューデータの完全なセットを作成します。
この暗示されたデータ内の潜在的な衝突や不確実性は、下流の推論の信頼性に影響を与える可能性がある。
論文 参考訳(メタデータ) (2024-08-23T14:50:49Z) - Multi-view Aggregation Network for Dichotomous Image Segmentation [76.75904424539543]
Dichotomous Image (DIS) は近年,高解像度自然画像からの高精度物体分割に向けて出現している。
既存の手法は、グローバルなローカライゼーションと局所的な洗練を徐々に完了させるために、退屈な複数のエンコーダ・デコーダストリームとステージに依存している。
これに触発されて、我々は多視点オブジェクト認識問題としてdisをモデル化し、擬似多視点アグリゲーションネットワーク(MVANet)を提供する。
一般的なdis-5Kデータセットの実験では、我々のMVANetは精度と速度の両方で最先端の手法を大きく上回っている。
論文 参考訳(メタデータ) (2024-04-11T03:00:00Z) - MLNet: Mutual Learning Network with Neighborhood Invariance for
Universal Domain Adaptation [70.62860473259444]
ユニバーサルドメイン適応(UniDA)は実用的だが難しい問題である。
既存のUniDAメソッドは、ターゲットドメイン内のドメイン内バリエーションを見落としている問題に悩まされる可能性がある。
そこで我々は,UniDA の近傍不変性を考慮した新しい相互学習ネットワーク (MLNet) を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:34Z) - ELFNet: Evidential Local-global Fusion for Stereo Matching [17.675146012208124]
ステレオマッチングのためのtextbfEvidential textbfLocal-global textbfFusion (ELF) フレームワークを提案する。
不確実性推定と信頼に値する頭部との信頼を意識した融合の両方を付与する。
論文 参考訳(メタデータ) (2023-08-01T15:51:04Z) - Learning to Fuse Monocular and Multi-view Cues for Multi-frame Depth
Estimation in Dynamic Scenes [51.20150148066458]
一般化されたマスクを必要とせず,ボリュームとして符号化された多視点と単眼のキューを融合させる新しい手法を提案する。
実世界のデータセットを用いた実験は,提案手法の有効性と性能を実証する。
論文 参考訳(メタデータ) (2023-04-18T13:55:24Z) - Trusted Multi-View Classification with Dynamic Evidential Fusion [73.35990456162745]
信頼型マルチビュー分類(TMC)と呼ばれる新しいマルチビュー分類アルゴリズムを提案する。
TMCは、様々な視点をエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
理論的および実験的結果は、精度、堅牢性、信頼性において提案されたモデルの有効性を検証した。
論文 参考訳(メタデータ) (2022-04-25T03:48:49Z) - Local-Global Associative Frame Assemble in Video Re-ID [57.7470971197962]
ビデオ列から自動生成されたオブジェクト境界ボックスにおける雑音および非表現フレームは、ビデオ再識別(Re-ID)における識別表現の学習に困難をもたらす
既存の手法の多くは、局所的な部分アライメントまたはグローバルな外観相関によって、ビデオフレームの重要性を個別に評価することで、この問題に対処している。
本研究では,局所的なアライメントとグローバルな相関関係を共同で検討し,相互の促進・強化について考察する。
論文 参考訳(メタデータ) (2021-10-22T19:07:39Z) - Locality Relationship Constrained Multi-view Clustering Framework [5.586948325488168]
局所性関連制約付きマルチビュークラスタリングフレームワーク(LRC-MCF)について述べる。
様々な視点の多様性、幾何学、コンセンサス、補完的な情報を探究することを目的としている。
LRC-MCFは、共通視点の局所性構造を見つける際に、異なる視点の重みを十分に考慮する。
論文 参考訳(メタデータ) (2021-07-11T15:45:10Z) - Trusted Multi-View Classification [76.73585034192894]
本稿では,信頼された多視点分類と呼ばれる新しい多視点分類手法を提案する。
さまざまなビューをエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
提案アルゴリズムは,分類信頼性とロバスト性の両方を促進するために,複数のビューを併用する。
論文 参考訳(メタデータ) (2021-02-03T13:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。