論文の概要: Backdoor Attacks on Multi-modal Contrastive Learning
- arxiv url: http://arxiv.org/abs/2601.11006v1
- Date: Fri, 16 Jan 2026 05:40:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.368322
- Title: Backdoor Attacks on Multi-modal Contrastive Learning
- Title(参考訳): マルチモーダルコントラスト学習におけるバックドアアタック
- Authors: Simi D Kuniyilh, Rita Machacy,
- Abstract要約: 本稿では,コントラスト学習におけるバックドアアタックの徹底的比較検討を行う。
脅威モデル、攻撃方法、ターゲットドメイン、利用可能な防御を分析します。
本研究の成果は, 産業・分散環境におけるシステムの安全な展開に大きく影響している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive learning has become a leading self- supervised approach to representation learning across domains, including vision, multimodal settings, graphs, and federated learning. However, recent studies have shown that contrastive learning is susceptible to backdoor and data poisoning attacks. In these attacks, adversaries can manipulate pretraining data or model updates to insert hidden malicious behavior. This paper offers a thorough and comparative review of backdoor attacks in contrastive learning. It analyzes threat models, attack methods, target domains, and available defenses. We summarize recent advancements in this area, underline the specific vulnerabilities inherent to contrastive learning, and discuss the challenges and future research directions. Our findings have significant implications for the secure deployment of systems in industrial and distributed environments.
- Abstract(参考訳): コントラスト学習は、視覚、マルチモーダル設定、グラフ、フェデレーションドラーニングを含む、ドメイン間での学習を表現するための指導的自己指導的アプローチとなっている。
しかし、最近の研究では、対照的な学習はバックドアやデータ中毒の攻撃に影響を受けやすいことが示されている。
これらの攻撃では、敵は事前訓練されたデータやモデルのアップデートを操作して、悪意のある振る舞いを隠蔽することができる。
本稿では,コントラスト学習におけるバックドアアタックの徹底的比較検討を行う。
脅威モデル、攻撃方法、ターゲットドメイン、利用可能な防御を分析します。
この領域の最近の進歩を要約し、対照的な学習に固有の特定の脆弱性を概説し、課題と今後の研究方向性について議論する。
本研究の成果は, 産業・分散環境におけるシステムの安全な展開に大きく影響している。
関連論文リスト
- Adversarial Attacks of Vision Tasks in the Past 10 Years: A Survey [21.4046846701173]
認知バイアス、即発注射、脱獄などの新たな攻撃ベクターが出現している。
既存の調査では、しばしば分類を攻撃し、詳細な分析を欠いている。
本稿は、従来のLVLM攻撃とLVLM攻撃の包括的概要を提供することによって、これらのギャップに対処する。
論文 参考訳(メタデータ) (2024-10-31T07:22:51Z) - On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - How Deep Learning Sees the World: A Survey on Adversarial Attacks &
Defenses [0.0]
本稿では、攻撃能力によってグループ化された最新の敵攻撃と、防御戦略によってクラスタ化された現代の防御をコンパイルする。
また、視覚変換器に関する新たな進歩を提示し、敵対的設定の文脈で使用されるデータセットとメトリクスを要約し、異なる攻撃下での最先端の結果を比較し、オープンな問題の特定で終了する。
論文 参考訳(メタデータ) (2023-05-18T10:33:28Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Backdoor Attacks and Countermeasures on Deep Learning: A Comprehensive
Review [40.36824357892676]
この研究は、コミュニティにバックドア攻撃のタイムリーなレビューとディープラーニング対策を提供する。
攻撃者の能力と機械学習パイプラインの影響を受けたステージにより、攻撃面は広く認識される。
対策は、ブラインド・バックドア・インスペクション、オフライン・バックドア・インスペクション、オンライン・バックドア・インスペクション、ポスト・バックドア・インスペクションの4つの一般的なクラスに分類される。
論文 参考訳(メタデータ) (2020-07-21T12:49:12Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。