論文の概要: Backdooring Self-Supervised Contrastive Learning by Noisy Alignment
- arxiv url: http://arxiv.org/abs/2508.14015v1
- Date: Tue, 19 Aug 2025 17:25:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:32.029365
- Title: Backdooring Self-Supervised Contrastive Learning by Noisy Alignment
- Title(参考訳): ノイズアライメントによる自己監督型コントラスト学習のバックドア化
- Authors: Tuo Chen, Jie Gui, Minjing Dong, Ju Jia, Lanting Fang, Jian Liu,
- Abstract要約: 自己教師付きコントラスト学習(CL)は、画像や画像とテキストのペアを含むラベルのないデータから転送可能な表現を効果的に学習する。
敵は、有毒な画像を事前訓練されたデータセットに注入することができ、妥協したCLエンコーダが下流のタスクで誤った振る舞いを示す。
有毒画像の雑音成分を明示的に抑制するDPCL法であるノイズアライメント(NA)を提案する。
- 参考スコア(独自算出の注目度): 19.58754341352538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised contrastive learning (CL) effectively learns transferable representations from unlabeled data containing images or image-text pairs but suffers vulnerability to data poisoning backdoor attacks (DPCLs). An adversary can inject poisoned images into pretraining datasets, causing compromised CL encoders to exhibit targeted misbehavior in downstream tasks. Existing DPCLs, however, achieve limited efficacy due to their dependence on fragile implicit co-occurrence between backdoor and target object and inadequate suppression of discriminative features in backdoored images. We propose Noisy Alignment (NA), a DPCL method that explicitly suppresses noise components in poisoned images. Inspired by powerful training-controllable CL attacks, we identify and extract the critical objective of noisy alignment, adapting it effectively into data-poisoning scenarios. Our method implements noisy alignment by strategically manipulating contrastive learning's random cropping mechanism, formulating this process as an image layout optimization problem with theoretically derived optimal parameters. The resulting method is simple yet effective, achieving state-of-the-art performance compared to existing DPCLs, while maintaining clean-data accuracy. Furthermore, Noisy Alignment demonstrates robustness against common backdoor defenses. Codes can be found at https://github.com/jsrdcht/Noisy-Alignment.
- Abstract(参考訳): 自己教師付きコントラスト学習(CL)は、画像や画像とテキストのペアを含むラベルのないデータから、転送可能な表現を効果的に学習するが、バックドア攻撃(DPCL)に弱い。
敵は、有毒な画像を事前訓練されたデータセットに注入することができ、妥協したCLエンコーダが下流のタスクで標的の誤動作を示す。
しかし、既存のDPCLは、バックドアとターゲットオブジェクト間の脆弱な暗黙的共起への依存と、バックドア画像における差別的特徴の不十分な抑制により、限られた有効性が得られる。
有毒画像の雑音成分を明示的に抑制するDPCL法であるノイズアライメント(NA)を提案する。
強力な訓練制御可能なCL攻撃に触発されて、ノイズアライメントの重要目標を特定し、抽出し、データ汚染シナリオに効果的に適用する。
提案手法は, 理論的に導出された最適パラメータを用いた画像レイアウト最適化問題として, コントラスト学習のランダムトリミング機構を戦略的に操作することにより, ノイズアライメントを実現する。
得られた手法は単純だが有効であり、クリーンなデータの精度を維持しつつ、既存のDPCLと比較して最先端の性能を達成する。
さらに、ノイズアライメントは一般的なバックドア防御に対する堅牢性を示す。
コードはhttps://github.com/jsrdcht/Noisy-Alignmentで見ることができる。
関連論文リスト
- Active Adversarial Noise Suppression for Image Forgery Localization [56.98050814363447]
本稿では、敵騒音の攻撃効果を抑制するために、防御的摂動を発生させる敵騒音抑制モジュール(ANSM)を提案する。
我々の知る限りでは、画像フォージェリローカライゼーションタスクにおける敵対的防御の報告としてはこれが初めてである。
論文 参考訳(メタデータ) (2025-06-15T14:53:27Z) - SSP-RACL: Classification of Noisy Fundus Images with Self-Supervised Pretraining and Robust Adaptive Credal Loss [3.8739860035485143]
基礎画像分類はコンピュータの診断タスクにおいて重要であるが、ラベルノイズはディープニューラルネットワークの性能を著しく損なう。
本稿では,ロバスト適応クレダルロス (SSP-RACL) を用いた自己監督型事前訓練(Self-Supervised Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-09-25T02:41:58Z) - Robust Contrastive Language-Image Pre-training against Data Poisoning
and Backdoor Attacks [52.26631767748843]
ROCLIPは、ターゲットデータ中毒やバックドア攻撃に対して、マルチモーダル視覚言語モデルを堅牢に学習するための最初の効果的な方法である。
ROCLIPは、比較的大きく多様なランダムキャプションのプールを考慮することにより、有毒な撮像対の関連を効果的に破壊する。
実験の結果,ROCLIPは訓練前のCLIPモデルにおいて,最先端のデータ中毒やバックドア攻撃を未然に防ぐことができることがわかった。
論文 参考訳(メタデータ) (2023-03-13T04:49:46Z) - CleanCLIP: Mitigating Data Poisoning Attacks in Multimodal Contrastive
Learning [63.72975421109622]
CleanCLIPは、バックドア攻撃によって引き起こされる学習された刺激的関連を弱める微調整フレームワークである。
CleanCLIPは、マルチモーダル・コントラッシブ・ラーニングに対するバックドア・アタックを根絶しながら、良質な例によるモデル性能を維持している。
論文 参考訳(メタデータ) (2023-03-06T17:48:32Z) - TransCAB: Transferable Clean-Annotation Backdoor to Object Detection
with Natural Trigger in Real-World [16.14185033829483]
クリーンなアノテート画像を製作し、バックドアを密かにトレーニング対象検出器に埋め込むMACABを提案する。
我々は,誤分類とクローキングの両方のバックドア効果が野生において頑健に達成されていることを観察した。
MACABは現実世界の様々な場面で90%以上の攻撃成功率を示す。
論文 参考訳(メタデータ) (2022-09-06T09:56:33Z) - Towards Adversarially Robust Deep Image Denoising [199.2458715635285]
本研究は,ディープ・イメージ・デノイザ(DID)の対角的ロバスト性について系統的に検討する。
本稿では,観測に基づくゼロ平均アタック(sc ObsAtk)という新たな敵攻撃を提案する。
DIDを頑健化するために,DIDと非対向雑音データとを併用したハイブリッド対向訓練(sc HAT)を提案する。
論文 参考訳(メタデータ) (2022-01-12T10:23:14Z) - Backdoor Attack on Hash-based Image Retrieval via Clean-label Data
Poisoning [54.15013757920703]
混乱性摂動誘発性バックドアアタック(CIBA)を提案する。
トレーニングデータに、正しいラベルで少量の有毒画像を注入する。
提案したCIBAの有効性を検証するための広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-18T07:56:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。