論文の概要: Backdooring Self-Supervised Contrastive Learning by Noisy Alignment
- arxiv url: http://arxiv.org/abs/2508.14015v1
- Date: Tue, 19 Aug 2025 17:25:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:32.029365
- Title: Backdooring Self-Supervised Contrastive Learning by Noisy Alignment
- Title(参考訳): ノイズアライメントによる自己監督型コントラスト学習のバックドア化
- Authors: Tuo Chen, Jie Gui, Minjing Dong, Ju Jia, Lanting Fang, Jian Liu,
- Abstract要約: 自己教師付きコントラスト学習(CL)は、画像や画像とテキストのペアを含むラベルのないデータから転送可能な表現を効果的に学習する。
敵は、有毒な画像を事前訓練されたデータセットに注入することができ、妥協したCLエンコーダが下流のタスクで誤った振る舞いを示す。
有毒画像の雑音成分を明示的に抑制するDPCL法であるノイズアライメント(NA)を提案する。
- 参考スコア(独自算出の注目度): 19.58754341352538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised contrastive learning (CL) effectively learns transferable representations from unlabeled data containing images or image-text pairs but suffers vulnerability to data poisoning backdoor attacks (DPCLs). An adversary can inject poisoned images into pretraining datasets, causing compromised CL encoders to exhibit targeted misbehavior in downstream tasks. Existing DPCLs, however, achieve limited efficacy due to their dependence on fragile implicit co-occurrence between backdoor and target object and inadequate suppression of discriminative features in backdoored images. We propose Noisy Alignment (NA), a DPCL method that explicitly suppresses noise components in poisoned images. Inspired by powerful training-controllable CL attacks, we identify and extract the critical objective of noisy alignment, adapting it effectively into data-poisoning scenarios. Our method implements noisy alignment by strategically manipulating contrastive learning's random cropping mechanism, formulating this process as an image layout optimization problem with theoretically derived optimal parameters. The resulting method is simple yet effective, achieving state-of-the-art performance compared to existing DPCLs, while maintaining clean-data accuracy. Furthermore, Noisy Alignment demonstrates robustness against common backdoor defenses. Codes can be found at https://github.com/jsrdcht/Noisy-Alignment.
- Abstract(参考訳): 自己教師付きコントラスト学習(CL)は、画像や画像とテキストのペアを含むラベルのないデータから、転送可能な表現を効果的に学習するが、バックドア攻撃(DPCL)に弱い。
敵は、有毒な画像を事前訓練されたデータセットに注入することができ、妥協したCLエンコーダが下流のタスクで標的の誤動作を示す。
しかし、既存のDPCLは、バックドアとターゲットオブジェクト間の脆弱な暗黙的共起への依存と、バックドア画像における差別的特徴の不十分な抑制により、限られた有効性が得られる。
有毒画像の雑音成分を明示的に抑制するDPCL法であるノイズアライメント(NA)を提案する。
強力な訓練制御可能なCL攻撃に触発されて、ノイズアライメントの重要目標を特定し、抽出し、データ汚染シナリオに効果的に適用する。
提案手法は, 理論的に導出された最適パラメータを用いた画像レイアウト最適化問題として, コントラスト学習のランダムトリミング機構を戦略的に操作することにより, ノイズアライメントを実現する。
得られた手法は単純だが有効であり、クリーンなデータの精度を維持しつつ、既存のDPCLと比較して最先端の性能を達成する。
さらに、ノイズアライメントは一般的なバックドア防御に対する堅牢性を示す。
コードはhttps://github.com/jsrdcht/Noisy-Alignmentで見ることができる。
関連論文リスト
- Pre-training CLIP against Data Poisoning with Optimal Transport-based Matching and Alignment [65.51957843888061]
対照的な言語-イメージ 事前訓練モデルは、ターゲットとするデータ中毒や攻撃によって脅かされている。
従来の防御方法は、各画像の新しいキャプションをマッチングすることで、有毒な撮像対を補正する。
我々は、OTCCLIPという画像キャプチャペアを再構成する最適なトランスポートベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-23T07:05:43Z) - PromptFlare: Prompt-Generalized Defense via Cross-Attention Decoy in Diffusion-Based Inpainting [25.24109316946351]
PromptFlareは,拡散型塗布モデルによる悪質な修正から画像を保護するために設計された,新たな敵対的保護手法である。
提案手法は, 急速埋め込みの固有特性を利用して, 対向ノイズを注入し, サンプリング過程を抑える。
EditBenchデータセットを用いた実験により,本手法が各種メトリクスの最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2025-08-22T08:42:46Z) - Active Adversarial Noise Suppression for Image Forgery Localization [56.98050814363447]
本稿では、敵騒音の攻撃効果を抑制するために、防御的摂動を発生させる敵騒音抑制モジュール(ANSM)を提案する。
我々の知る限りでは、画像フォージェリローカライゼーションタスクにおける敵対的防御の報告としてはこれが初めてである。
論文 参考訳(メタデータ) (2025-06-15T14:53:27Z) - SSP-RACL: Classification of Noisy Fundus Images with Self-Supervised Pretraining and Robust Adaptive Credal Loss [3.8739860035485143]
基礎画像分類はコンピュータの診断タスクにおいて重要であるが、ラベルノイズはディープニューラルネットワークの性能を著しく損なう。
本稿では,ロバスト適応クレダルロス (SSP-RACL) を用いた自己監督型事前訓練(Self-Supervised Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-09-25T02:41:58Z) - Rethinking and Defending Protective Perturbation in Personalized Diffusion Models [21.30373461975769]
パーソナライズされた拡散モデル(PDM)の微調整過程について,ショートカット学習のレンズを用いて検討した。
PDMは小さな逆境の摂動に影響を受けやすいため、破損したデータセットを微調整すると著しく劣化する。
本稿では,データ浄化と対照的なデカップリング学習を含むシステム防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-27T07:14:14Z) - BadCLIP: Trigger-Aware Prompt Learning for Backdoor Attacks on CLIP [55.33331463515103]
BadCLIPは、CLIPに対するバックドア攻撃において、新しく効果的なメカニズムの上に構築されている。
画像に適用される学習可能なトリガーとトリガー対応コンテキストジェネレータで構成されており、トリガーはトリガー対応プロンプトを通じてテキスト機能を変更することができる。
論文 参考訳(メタデータ) (2023-11-26T14:24:13Z) - Robust Contrastive Language-Image Pre-training against Data Poisoning
and Backdoor Attacks [52.26631767748843]
ROCLIPは、ターゲットデータ中毒やバックドア攻撃に対して、マルチモーダル視覚言語モデルを堅牢に学習するための最初の効果的な方法である。
ROCLIPは、比較的大きく多様なランダムキャプションのプールを考慮することにより、有毒な撮像対の関連を効果的に破壊する。
実験の結果,ROCLIPは訓練前のCLIPモデルにおいて,最先端のデータ中毒やバックドア攻撃を未然に防ぐことができることがわかった。
論文 参考訳(メタデータ) (2023-03-13T04:49:46Z) - CleanCLIP: Mitigating Data Poisoning Attacks in Multimodal Contrastive
Learning [63.72975421109622]
CleanCLIPは、バックドア攻撃によって引き起こされる学習された刺激的関連を弱める微調整フレームワークである。
CleanCLIPは、マルチモーダル・コントラッシブ・ラーニングに対するバックドア・アタックを根絶しながら、良質な例によるモデル性能を維持している。
論文 参考訳(メタデータ) (2023-03-06T17:48:32Z) - TransCAB: Transferable Clean-Annotation Backdoor to Object Detection
with Natural Trigger in Real-World [16.14185033829483]
クリーンなアノテート画像を製作し、バックドアを密かにトレーニング対象検出器に埋め込むMACABを提案する。
我々は,誤分類とクローキングの両方のバックドア効果が野生において頑健に達成されていることを観察した。
MACABは現実世界の様々な場面で90%以上の攻撃成功率を示す。
論文 参考訳(メタデータ) (2022-09-06T09:56:33Z) - Towards Adversarially Robust Deep Image Denoising [199.2458715635285]
本研究は,ディープ・イメージ・デノイザ(DID)の対角的ロバスト性について系統的に検討する。
本稿では,観測に基づくゼロ平均アタック(sc ObsAtk)という新たな敵攻撃を提案する。
DIDを頑健化するために,DIDと非対向雑音データとを併用したハイブリッド対向訓練(sc HAT)を提案する。
論文 参考訳(メタデータ) (2022-01-12T10:23:14Z) - Backdoor Attack on Hash-based Image Retrieval via Clean-label Data
Poisoning [54.15013757920703]
混乱性摂動誘発性バックドアアタック(CIBA)を提案する。
トレーニングデータに、正しいラベルで少量の有毒画像を注入する。
提案したCIBAの有効性を検証するための広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-18T07:56:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。