論文の概要: Reliable Disentanglement Multi-view Learning Against View Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2505.04046v2
- Date: Wed, 21 May 2025 07:05:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:58.510902
- Title: Reliable Disentanglement Multi-view Learning Against View Adversarial Attacks
- Title(参考訳): 対人攻撃に対する信頼性のある多視点学習
- Authors: Xuyang Wang, Siyuan Duan, Qizhi Li, Guiduo Duan, Yuan Sun, Dezhong Peng,
- Abstract要約: 既存のマルチビュー学習手法では、マルチビューデータが安全であると暗黙的に仮定している。
自律運転やセキュリティ監視のような安全に敏感なアプリケーションでは、マルチビューデータは敵の摂動による脅威に直面していることが多い。
本稿では,新しい多視点学習フレームワーク,すなわちReliable Disentanglement Multi-view Learning (RDML)を提案する。
- 参考スコア(独自算出の注目度): 12.225939110845486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trustworthy multi-view learning has attracted extensive attention because evidence learning can provide reliable uncertainty estimation to enhance the credibility of multi-view predictions. Existing trusted multi-view learning methods implicitly assume that multi-view data is secure. However, in safety-sensitive applications such as autonomous driving and security monitoring, multi-view data often faces threats from adversarial perturbations, thereby deceiving or disrupting multi-view models. This inevitably leads to the adversarial unreliability problem (AUP) in trusted multi-view learning. To overcome this tricky problem, we propose a novel multi-view learning framework, namely Reliable Disentanglement Multi-view Learning (RDML). Specifically, we first propose evidential disentanglement learning to decompose each view into clean and adversarial parts under the guidance of corresponding evidences, which is extracted by a pretrained evidence extractor. Then, we employ the feature recalibration module to mitigate the negative impact of adversarial perturbations and extract potential informative features from them. Finally, to further ignore the irreparable adversarial interferences, a view-level evidential attention mechanism is designed. Extensive experiments on multi-view classification tasks with adversarial attacks show that RDML outperforms the state-of-the-art methods by a relatively large margin. Our code is available at https://github.com/Willy1005/2025-IJCAI-RDML.
- Abstract(参考訳): 証拠学習は信頼性の高い不確実性推定を提供し、多視点予測の信頼性を高めることができるため、信頼できる多視点学習が注目されている。
既存のマルチビュー学習手法では、マルチビューデータが安全であると暗黙的に仮定している。
しかしながら、自律運転やセキュリティ監視のような安全に敏感なアプリケーションでは、マルチビューデータは敵の摂動からの脅威に直面し、それによってマルチビューモデルを欺いたり、破壊したりする。
これは必然的に、信頼できる多視点学習における敵対的不確実性問題(AUP)につながる。
そこで我々は,この難解な問題を克服するために,新しい多視点学習フレームワーク,すなわちReliable Disentanglement Multi-view Learning (RDML)を提案する。
具体的には、まず、事前訓練された証拠抽出装置によって抽出された証拠のガイダンスに基づき、各ビューをクリーンかつ逆方向の部分に分解する顕在的歪曲学習を提案する。
そこで我々は, 対向摂動の負の影響を緩和し, 潜在的な情報的特徴を抽出するために, 特徴補正モジュールを用いる。
最後に、不可分な対向干渉をさらに無視するために、ビューレベル明示的注意機構を設計する。
敵攻撃を伴う多視点分類タスクに関する大規模な実験により、RDMLは最先端の手法を比較的大きなマージンで上回ることを示した。
私たちのコードはhttps://github.com/Willy1005/2025-IJCAI-RDMLで利用可能です。
関連論文リスト
- Learning Fused State Representations for Control from Multi-View Observations [19.862313754887648]
MVRL(Multi-view Reinforcement Learning)は、エージェントに多視点観察を提供し、より有効で精度の高い環境を認識できるようにする。
MVRLの最近の進歩は、多視点観測から潜在表現を抽出し、制御タスクに活用することに焦点を当てている。
まず,MVRLにバイシミュレートメトリック学習を取り入れ,タスク関連表現を学習する多視点統合制御(MFSC)を提案する。
論文 参考訳(メタデータ) (2025-02-03T12:46:02Z) - Hierarchical Mutual Distillation for Multi-View Fusion: Learning from All Possible View Combinations [0.053801353100098995]
本稿では,新しいMV-UWMD法を提案する。
MV-UWMDは既存のマルチビュー学習手法と比較して予測精度と一貫性を向上させる。
論文 参考訳(メタデータ) (2024-11-15T09:45:32Z) - Evidential Deep Partial Multi-View Classification With Discount Fusion [24.139495744683128]
Evidential Deep partial Multi-View Classification (EDP-MVC) と呼ばれる新しいフレームワークを提案する。
欠落したビューに対処するためにK-means命令を使用し、マルチビューデータの完全なセットを作成します。
この暗示されたデータ内の潜在的な衝突や不確実性は、下流の推論の信頼性に影響を与える可能性がある。
論文 参考訳(メタデータ) (2024-08-23T14:50:49Z) - Regularized Contrastive Partial Multi-view Outlier Detection [76.77036536484114]
RCPMOD(Regularized Contrastive partial Multi-view Outlier Detection)と呼ばれる新しい手法を提案する。
このフレームワークでは、コントラスト学習を利用して、ビュー一貫性のある情報を学び、一貫性の度合いでアウトレイラを識別する。
4つのベンチマークデータセットによる実験結果から,提案手法が最先端の競合より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-02T14:34:27Z) - Towards Generalized Multi-stage Clustering: Multi-view Self-distillation [10.368796552760571]
既存のマルチステージクラスタリング手法は、独立して複数のビューから健全な特徴を学習し、クラスタリングタスクを実行する。
本稿では,多視点自己蒸留(DistilMVC)を導入し,ラベル分布の暗黒知識を抽出する多段階深層MVCフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-29T03:35:34Z) - When Measures are Unreliable: Imperceptible Adversarial Perturbations
toward Top-$k$ Multi-Label Learning [83.8758881342346]
新しい損失関数は、視覚的および測定的不受容性を両立できる敵の摂動を生成するために考案された。
大規模ベンチマークデータセットを用いた実験により,提案手法が最上位の$kのマルチラベルシステムを攻撃する際の優位性を実証した。
論文 参考訳(メタデータ) (2023-07-27T13:18:47Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Trusted Multi-View Classification with Dynamic Evidential Fusion [73.35990456162745]
信頼型マルチビュー分類(TMC)と呼ばれる新しいマルチビュー分類アルゴリズムを提案する。
TMCは、様々な視点をエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
理論的および実験的結果は、精度、堅牢性、信頼性において提案されたモデルの有効性を検証した。
論文 参考訳(メタデータ) (2022-04-25T03:48:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。