論文の概要: Preserving Cross-Modal Stability for Visual Unlearning in Multimodal Scenarios
- arxiv url: http://arxiv.org/abs/2509.23895v1
- Date: Sun, 28 Sep 2025 14:03:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.515672
- Title: Preserving Cross-Modal Stability for Visual Unlearning in Multimodal Scenarios
- Title(参考訳): マルチモーダルシナリオにおける視覚的アンラーニングのためのクロスモーダル安定性の保存
- Authors: Jinghan Xu Yuyang Zhang Qixuan Cai Jiancheng Chen Keqiu Li,
- Abstract要約: 3つの重要なコンポーネントを統合したクロスモーダル・コントラスト・アンラーニング(CCU)フレームワークを提案する。
CCUの精度は7.12%向上し、学習時間の7%に過ぎなかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual modality is the most vulnerable to privacy leakage in real-world multimodal applications like autonomous driving with visual and radar data; Machine unlearning removes specific training data from pre-trained models to address privacy leakage, however, existing methods fail to preserve cross-modal knowledge and maintain intra-class structural stability of retain data, leading to reduced overall and other modalities' performance during visual unlearning; to address these challenges, we propose a Cross-modal Contrastive Unlearning (CCU) framework, which integrates three key components: (a) selective visual unlearning: employing inverse contrastive learning to dissociate visual representations from their original semantics, (b) cross-modal knowledge retention: preserving other modalities' discriminability through semantic consistency, and (c) dual-set contrastive separation: preserving the model performance via isolation of structural perturbations between the unlearn set and retain set; extensive experiments on three datasets demonstrate the superiority of CCU, and our method achieves a 7.12% accuracy improvement with only 7% of the unlearning time compared to the top-accuracy baseline.
- Abstract(参考訳): 視覚的モダリティは、視覚的およびレーダーデータによる自律運転のような現実のマルチモーダルアプリケーションにおいて、最も脆弱なプライバシー漏洩である。マシーン・アンラーニングは、事前訓練されたモデルから特定のトレーニングデータを削除し、プライバシ・リークに対処するが、既存の手法では、クロスモーダルな知識を維持し、保持データのクラス内構造的安定性を維持することができず、視覚的アンラーニング中に全体的なその他のモダリティのパフォーマンスを低下させる。
(a)選択的な視覚的アンラーニング:元の意味論から視覚的表現を解離させる逆のコントラスト学習を用いる。
b)クロスモーダルな知識保持:意味的整合性を通じて他のモダリティの識別性を維持すること、
(c) 二重集合のコントラスト分離: 未学習集合と保持集合の間の構造的摂動の分離によるモデル性能の保存; 3つのデータセットに対する広範な実験によりCCUの優位性を示し, 提案手法は, 上位精度のベースラインに比べて学習時間のわずか7%の精度で7.12%の精度向上を実現している。
関連論文リスト
- WSS-CL: Weight Saliency Soft-Guided Contrastive Learning for Efficient Machine Unlearning Image Classification [0.0]
本稿では,画像分類のための2相効率的な機械学習手法を提案する。
我々の手法は、効率的な機械学習画像分類(WSS-CL)のためのウェイトサリエンシソフトガイド型コントラスト学習と呼ばれる。
提案手法は, 最先端手法と比較して, 性能損失を無視できるほど改善されていない未学習の有効性を示す。
論文 参考訳(メタデータ) (2025-08-06T10:47:36Z) - MoCa: Modality-aware Continual Pre-training Makes Better Bidirectional Multimodal Embeddings [75.0617088717528]
MoCaは、トレーニング済みのVLMバックボーンを効果的な双方向埋め込みモデルに変換するためのフレームワークである。
MoCaは、MMEBとViDoRe-v2ベンチマークのパフォーマンスを継続的に改善し、新しい最先端の結果を達成する。
論文 参考訳(メタデータ) (2025-06-29T06:41:00Z) - 3C: Confidence-Guided Clustering and Contrastive Learning for Unsupervised Person Re-Identification [10.173539278449262]
教師なし人物再識別(Re-ID)は、非ラベルデータセットでクロスカメラ検索機能を備えた機能ネットワークを学習することを目的としている。
教師なしのRe-IDに対して,信頼誘導型クラスタリングとコントラスト学習(3C)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-18T13:14:20Z) - Self-aware and Cross-sample Prototypical Learning for Semi-supervised
Medical Image Segmentation [10.18427897663732]
整合性学習は半教師付き医療画像セグメンテーションにおいて重要な役割を担っている。
これにより、注釈なしデータの豊富さを生かしながら、限られた注釈付きデータの有効利用が可能になる。
一貫性学習における予測の多様性を高めるために,自己認識型・クロスサンプル型学習法(SCP-Net)を提案する。
論文 参考訳(メタデータ) (2023-05-25T16:22:04Z) - Continual Vision-Language Representation Learning with Off-Diagonal
Information [112.39419069447902]
CLIPのようなマルチモーダルなコントラスト学習フレームワークは通常、トレーニングに大量の画像テキストサンプルを必要とする。
本稿では,ストリーミングデータを用いた連続CLIPトレーニングの実現可能性について論じる。
論文 参考訳(メタデータ) (2023-05-11T08:04:46Z) - PointACL:Adversarial Contrastive Learning for Robust Point Clouds
Representation under Adversarial Attack [73.3371797787823]
逆比較学習(Adversarial contrastive learning, ACL)は、事前学習されたモデルの堅牢性を改善する効果的な方法と考えられている。
本稿では,自己指導型コントラスト学習フレームワークを逆向きに学習するために,ロバストな認識損失関数を提案する。
提案手法であるPointACLを,複数のデータセットを用いた3次元分類と3次元分割を含む下流タスクで検証する。
論文 参考訳(メタデータ) (2022-09-14T22:58:31Z) - Self-Supervised Multi-Frame Monocular Scene Flow [61.588808225321735]
自己監督学習に基づくマルチフレーム一眼的シーンフローネットワークを導入。
自己監督学習に基づく単眼的シーンフロー法における最新の精度を観察する。
論文 参考訳(メタデータ) (2021-05-05T17:49:55Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。