論文の概要: Poisoning and Backdooring Contrastive Learning
- arxiv url: http://arxiv.org/abs/2106.09667v1
- Date: Thu, 17 Jun 2021 17:20:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 15:44:34.960288
- Title: Poisoning and Backdooring Contrastive Learning
- Title(参考訳): 中毒とバックドア コントラスト学習
- Authors: Nicholas Carlini, Andreas Terzis
- Abstract要約: CLIPのような対照的な学習方法は、ノイズの多いデータセットと未処理のデータセットでトレーニングする。
この慣行がバックドアや毒殺を重大な脅威にしていることを示す。
- 参考スコア(独自算出の注目度): 26.093821359987224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive learning methods like CLIP train on noisy and uncurated training
datasets. This is cheaper than labeling datasets manually, and even improves
out-of-distribution robustness. We show that this practice makes backdoor and
poisoning attacks a significant threat. By poisoning just 0.005% of a dataset
(e.g., just 150 images of the 3 million-example Conceptual Captions dataset),
we can cause the model to misclassify test images by overlaying a small patch.
Targeted poisoning attacks, whereby the model misclassifies a particular test
input with an adversarially-desired label, are even easier requiring control of
less than 0.0001% of the dataset (e.g., just two out of the 3 million images).
Our attacks call into question whether training on noisy and uncurated Internet
scrapes is desirable.
- Abstract(参考訳): ノイズと未修正のトレーニングデータセット上でのクリップトレーニングのような対比学習方法。
これはデータセットを手動でラベル付けするよりも安く、配布外ロバスト性も向上する。
この慣行がバックドアや毒殺を重大な脅威にしていることを示す。
データセットのわずか0.005%(例:300万のコンセプトキャプションデータセットのたった150イメージ)を毒することで、小さなパッチをオーバーレイしてテストイメージを誤分類させることができる。
ターゲットの毒殺攻撃では、モデルが特定のテスト入力を敵に望まれるラベルで誤って分類し、データセットの0.0001%未満の制御を必要とする(例:300万画像のうち2つ)。
我々の攻撃は、騒がしいインターネットスクレイプのトレーニングが望ましいかどうかに疑問を呈する。
関連論文リスト
- Label Poisoning is All You Need [38.23099403381095]
バックドア攻撃において、敵は、画像上の予測を制御するために、破損したデータをモデルのトレーニングデータセットに注入する。
我々は、FLIPと呼ばれるラベルのみのバックドア攻撃を設計するための新しいアプローチを導入する。
FLIPの攻撃成功率は99.4%であり、クリーンテストの精度は1.8%しか低下していない。
論文 参考訳(メタデータ) (2023-10-29T08:03:45Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - Narcissus: A Practical Clean-Label Backdoor Attack with Limited
Information [22.98039177091884]
クリーンラベル」バックドア攻撃には、トレーニングセット全体の知識が必要である。
本稿では,対象クラスの代表例の知識のみに基づいて,クリーンラベルバックドア攻撃をマウントするアルゴリズムを提案する。
私たちの攻撃は、物理的な世界にトリガーが存在する場合でも、データセットやモデル間でうまく機能します。
論文 参考訳(メタデータ) (2022-04-11T16:58:04Z) - Robust Unlearnable Examples: Protecting Data Against Adversarial
Learning [77.6015932710068]
本稿では,誤り最小化ノイズを付加することにより,ディープラーニングモデルにデータを学習不能にすることを提案する。
本稿では,敵の訓練から保護される頑健な学習不可能な事例を生成するための新しい手法を設計する。
実験により, 強靭な誤り最小化ノイズによる難読性は, 種々のシナリオにおいて, 敵の訓練からデータを効果的に保護できることが示唆された。
論文 参考訳(メタデータ) (2022-03-28T07:13:51Z) - Adversarial Examples Make Strong Poisons [55.63469396785909]
従来は訓練済みのモデルに対する攻撃を意図していた敵の例は,近年の毒殺に特化して設計された手法よりも,データ中毒に有効であることを示す。
また,本手法は,データセットのセキュアなリリースにおいて,既存の中毒法よりも極めて効果的である。
論文 参考訳(メタデータ) (2021-06-21T01:57:14Z) - Poisoning the Unlabeled Dataset of Semi-Supervised Learning [26.093821359987224]
ラベルなしのデータセットを変更する中毒攻撃:我々は、脆弱性の新しいクラスを研究します。
有用にするために、ラベルなしデータセットはラベル付きデータセットよりも厳密にレビューが少なくなる。
我々の攻撃はデータセットや半教師付き学習手法で非常に効果的です。
論文 参考訳(メタデータ) (2021-05-04T16:55:20Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z) - Intrinsic Certified Robustness of Bagging against Data Poisoning Attacks [75.46678178805382]
emphdata中毒攻撃では、攻撃者は学習した機械学習モデルを破損させるためにいくつかのトレーニング例を変更し、削除し、または挿入する。
データ中毒攻撃に対するバッグングの本質的確固たる堅牢性を証明する。
本手法は, 任意の修正, 削除, 挿入を行う場合, MNIST 上で 911.1% の精度を達成している。
論文 参考訳(メタデータ) (2020-08-11T03:12:42Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。