論文の概要: Indiscriminate Poisoning Attacks Are Shortcuts
- arxiv url: http://arxiv.org/abs/2111.00898v1
- Date: Mon, 1 Nov 2021 12:44:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 17:29:05.493082
- Title: Indiscriminate Poisoning Attacks Are Shortcuts
- Title(参考訳): 無差別の毒殺攻撃はショートカットだ
- Authors: Da Yu, Huishuai Zhang, Wei Chen, Jian Yin, Tie-Yan Liu
- Abstract要約: その結果, 標的ラベルを付与した場合, 進行性毒素攻撃の摂動は, ほぼ分離可能であることがわかった。
このような合成摂動は、故意に作られた攻撃と同じくらい強力であることを示す。
我々の発見は、アンフショートカット学習の問題が以前考えられていたよりも深刻であることを示唆している。
- 参考スコア(独自算出の注目度): 77.38947817228656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Indiscriminate data poisoning attacks, which add imperceptible perturbations
to training data to maximize the test error of trained models, have become a
trendy topic because they are thought to be capable of preventing unauthorized
use of data. In this work, we investigate why these perturbations work in
principle. We find that the perturbations of advanced poisoning attacks are
almost \textbf{linear separable} when assigned with the target labels of the
corresponding samples, which hence can work as \emph{shortcuts} for the
learning objective. This important population property has not been unveiled
before. Moreover, we further verify that linear separability is indeed the
workhorse for poisoning attacks. We synthesize linear separable data as
perturbations and show that such synthetic perturbations are as powerful as the
deliberately crafted attacks. Our finding suggests that the \emph{shortcut
learning} problem is more serious than previously believed as deep learning
heavily relies on shortcuts even if they are of an imperceptible scale and
mixed together with the normal features. This finding also suggests that
pre-trained feature extractors would disable these poisoning attacks
effectively.
- Abstract(参考訳): トレーニングデータに知覚不可能な摂動を加えてトレーニングモデルのテストエラーを最大化する無差別なデータ中毒攻撃は、不正なデータの使用を防止できると考えられるため、トレンドとなっている。
本研究では,これらの摂動が原理的に働く理由について考察する。
高度な中毒攻撃の摂動は、対応するサンプルの標的ラベルに割り当てられた場合にはほぼ \textbf{linear separable} であり、学習目的には \emph{shortcuts} として機能する。
この重要な人口の資産は以前にも明らかにされていない。
さらに,線分分離性が中毒攻撃の働き馬であることの検証も行う。
線形分離可能なデータを摂動として合成し、そのような合成摂動が故意に作られた攻撃と同じくらい強力であることを示す。
我々の発見は, 深層学習は知覚不可能な尺度であり, 通常の特徴と混在しているとしても, ショートカットに大きく依存しているため, 従来信じられていたような「emph{shortcut learning}」問題は深刻であることを示している。
この発見は、事前訓練された特徴抽出器がこれらの中毒攻撃を効果的に無効にすることを示唆している。
関連論文リスト
- Deferred Poisoning: Making the Model More Vulnerable via Hessian Singularization [39.37308843208039]
我々は、より脅迫的なタイプの毒殺攻撃(Dederred Poisoning Attack)を導入する。
この新たな攻撃により、モデルは通常、トレーニングと検証フェーズで機能するが、回避攻撃や自然騒音に非常に敏感になる。
提案手法の理論的および実証的な解析を行い、画像分類タスクの実験を通してその効果を検証した。
論文 参考訳(メタデータ) (2024-11-06T08:27:49Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - What Distributions are Robust to Indiscriminate Poisoning Attacks for
Linear Learners? [15.848311379119295]
本研究では, 学習者に対する無差別な毒殺について検討し, 学習者に対して, 学習データにいくつかの工芸品を注入し, 誘導モデルに高い試験誤差を生じさせるよう強制することを目的とした。
そこで本研究では, 線形学習者に対して, 線形学習者に対する有害な攻撃を非差別化するために, データセットが本質的に堅牢であるかどうかを考察した。
論文 参考訳(メタデータ) (2023-07-03T14:54:13Z) - Adversarial Attacks are a Surprisingly Strong Baseline for Poisoning
Few-Shot Meta-Learners [28.468089304148453]
これにより、システムの学習アルゴリズムを騙すような、衝突する入力セットを作れます。
ホワイトボックス環境では、これらの攻撃は非常に成功しており、ターゲットモデルの予測が偶然よりも悪化する可能性があることを示す。
攻撃による「過度な対応」と、攻撃が生成されたモデルと攻撃が転送されたモデルとのミスマッチという2つの仮説を探索する。
論文 参考訳(メタデータ) (2022-11-23T14:55:44Z) - Adversarial Examples Make Strong Poisons [55.63469396785909]
従来は訓練済みのモデルに対する攻撃を意図していた敵の例は,近年の毒殺に特化して設計された手法よりも,データ中毒に有効であることを示す。
また,本手法は,データセットのセキュアなリリースにおいて,既存の中毒法よりも極めて効果的である。
論文 参考訳(メタデータ) (2021-06-21T01:57:14Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - Provable Defense Against Delusive Poisoning [64.69220849669948]
本研究は, 対人訓練が妄想性中毒に対する防御法であることを示す。
これは、敵の訓練が妄想的中毒に対する原則的な防御方法であることを意味している。
論文 参考訳(メタデータ) (2021-02-09T09:19:47Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z) - A Separation Result Between Data-oblivious and Data-aware Poisoning
Attacks [40.044030156696145]
殺人攻撃は、機械学習アルゴリズムに対する重要なセキュリティ脅威として浮上している。
強力な毒殺攻撃のいくつかは、トレーニングデータの完全な知識を必要とする。
本研究は,全情報相手が最適攻撃者よりも確実に強いことを示す。
論文 参考訳(メタデータ) (2020-03-26T16:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。