論文の概要: Indiscriminate Poisoning Attacks on Unsupervised Contrastive Learning
- arxiv url: http://arxiv.org/abs/2202.11202v1
- Date: Tue, 22 Feb 2022 22:31:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 14:32:17.507119
- Title: Indiscriminate Poisoning Attacks on Unsupervised Contrastive Learning
- Title(参考訳): 教師なしコントラスト学習における無差別毒殺攻撃
- Authors: Hao He, Kaiwen Zha, Dina Katabi
- Abstract要約: コントラスト学習に対する無差別なデータ中毒攻撃について検討するのは,今回が初めてである。
対照的な学習アルゴリズムの違いを強調し、いくつかのアルゴリズムが他のアルゴリズムよりも脆弱であることを示す。
本研究では,行列補完に基づく新たなデータ拡張が,教師なしコントラスト学習に対するデータ中毒対策に極めて有効であることを示す。
- 参考スコア(独自算出の注目度): 24.23061549011586
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Indiscriminate data poisoning attacks are quite effective against supervised
learning. However, not much is known about their impact on unsupervised
contrastive learning (CL). This paper is the first to consider indiscriminate
data poisoning attacks on contrastive learning, demonstrating the feasibility
of such attacks, and their differences from indiscriminate poisoning of
supervised learning. We also highlight differences between contrastive learning
algorithms, and show that some algorithms (e.g., SimCLR) are more vulnerable
than others (e.g., MoCo). We differentiate between two types of data poisoning
attacks: sample-wise attacks, which add specific noise to each image, cause the
largest drop in accuracy, but do not transfer well across SimCLR, MoCo, and
BYOL. In contrast, attacks that use class-wise noise, though cause a smaller
drop in accuracy, transfer well across different CL algorithms. Finally, we
show that a new data augmentation based on matrix completion can be highly
effective in countering data poisoning attacks on unsupervised contrastive
learning.
- Abstract(参考訳): 無差別なデータ中毒攻撃は教師付き学習に対して非常に効果的である。
しかし、教師なしコントラスト学習(CL)への影響についてはあまり知られていない。
本稿では,コントラスト学習におけるデータ中毒攻撃の無差別化を初めて検討し,そのような攻撃の可能性と,教師あり学習の無差別中毒との違いを明らかにした。
また,コントラスト学習アルゴリズムの違いに注目し,アルゴリズム(例えばsimclr)が他のアルゴリズム(例えばmoco)よりも脆弱であることを示す。
サンプルワイズ攻撃は、各画像に特定のノイズを加え、最大の精度低下を引き起こすが、SimCLR、MoCo、BYOL間ではうまく転送されない。
対照的に、クラスワイドノイズを使用する攻撃は、精度を低下させ、異なるCLアルゴリズム間でうまく転送する。
最後に,行列補完に基づく新たなデータ拡張は,教師なしコントラスト学習に対するデータ中毒対策に極めて有効であることを示す。
関連論文リスト
- Unlearnable Examples Detection via Iterative Filtering [84.59070204221366]
ディープニューラルネットワークは、データ中毒攻撃に弱いことが証明されている。
混合データセットから有毒なサンプルを検出することは極めて有益であり、困難である。
UE識別のための反復フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T13:26:13Z) - PACOL: Poisoning Attacks Against Continual Learners [1.569413950416037]
本研究では,悪意ある誤報によって連続学習システムを操作できることを実証する。
本稿では,連続学習者を対象としたデータ中毒攻撃の新たなカテゴリについて紹介する。
総合的な実験のセットは、一般的に使われている生成的リプレイと正規化に基づく攻撃方法に対する継続的な学習アプローチの脆弱性を示している。
論文 参考訳(メタデータ) (2023-11-18T00:20:57Z) - Transferable Availability Poisoning Attacks [23.241524904589326]
我々は、機械学習モデルの総合的なテスト精度を低下させることを目的とした、アベイラビリティーデータ中毒攻撃について検討する。
既存の毒殺対策は攻撃目標を達成することができるが、被害者は敵が攻撃をマウントするために使用するものと同じ学習方法を採用すると仮定する。
本稿では,まずアライメントと均一性の本質的な特性を活用して,非学習性を向上するTransferable Poisoningを提案する。
論文 参考訳(メタデータ) (2023-10-08T12:22:50Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Amplifying Membership Exposure via Data Poisoning [18.799570863203858]
本稿では,データ中毒の第3タイプについて検討し,良心的トレーニングサンプルのプライバシー漏洩リスクを高めることを目的とした。
そこで本研究では,対象クラスの加入者への露出を増幅するために,データ中毒攻撃のセットを提案する。
この結果から,提案手法は,テスト時間モデルの性能劣化を最小限に抑えることで,メンバーシップ推定精度を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-11-01T13:52:25Z) - Indiscriminate Poisoning Attacks Are Shortcuts [77.38947817228656]
その結果, 標的ラベルを付与した場合, 進行性毒素攻撃の摂動は, ほぼ分離可能であることがわかった。
このような合成摂動は、故意に作られた攻撃と同じくらい強力であることを示す。
我々の発見は、アンフショートカット学習の問題が以前考えられていたよりも深刻であることを示唆している。
論文 参考訳(メタデータ) (2021-11-01T12:44:26Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - De-Pois: An Attack-Agnostic Defense against Data Poisoning Attacks [17.646155241759743]
De-Poisは、中毒攻撃に対する攻撃に依存しない防御です。
我々は,4種類の毒殺攻撃を実施,5種類の典型的な防御方法を用いてデポアを評価する。
論文 参考訳(メタデータ) (2021-05-08T04:47:37Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - A Separation Result Between Data-oblivious and Data-aware Poisoning
Attacks [40.044030156696145]
殺人攻撃は、機械学習アルゴリズムに対する重要なセキュリティ脅威として浮上している。
強力な毒殺攻撃のいくつかは、トレーニングデータの完全な知識を必要とする。
本研究は,全情報相手が最適攻撃者よりも確実に強いことを示す。
論文 参考訳(メタデータ) (2020-03-26T16:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。