論文の概要: How adversarial attacks can disrupt seemingly stable accurate
classifiers
- arxiv url: http://arxiv.org/abs/2309.03665v1
- Date: Thu, 7 Sep 2023 12:02:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-08 13:08:11.601417
- Title: How adversarial attacks can disrupt seemingly stable accurate
classifiers
- Title(参考訳): 敵対的攻撃はいかにして安定した正確な分類を妨害するか
- Authors: Oliver J. Sutton, Qinghua Zhou, Ivan Y. Tyukin, Alexander N. Gorban,
Alexander Bastounis, Desmond J. Higham
- Abstract要約: 敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
- 参考スコア(独自算出の注目度): 80.2657717174889
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Adversarial attacks dramatically change the output of an otherwise accurate
learning system using a seemingly inconsequential modification to a piece of
input data. Paradoxically, empirical evidence indicates that even systems which
are robust to large random perturbations of the input data remain susceptible
to small, easily constructed, adversarial perturbations of their inputs. Here,
we show that this may be seen as a fundamental feature of classifiers working
with high dimensional input data. We introduce a simple generic and
generalisable framework for which key behaviours observed in practical systems
arise with high probability -- notably the simultaneous susceptibility of the
(otherwise accurate) model to easily constructed adversarial attacks, and
robustness to random perturbations of the input data. We confirm that the same
phenomena are directly observed in practical neural networks trained on
standard image classification problems, where even large additive random noise
fails to trigger the adversarial instability of the network. A surprising
takeaway is that even small margins separating a classifier's decision surface
from training and testing data can hide adversarial susceptibility from being
detected using randomly sampled perturbations. Counterintuitively, using
additive noise during training or testing is therefore inefficient for
eradicating or detecting adversarial examples, and more demanding adversarial
training is required.
- Abstract(参考訳): 敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
実証的な証拠は、入力データの大きなランダムな摂動に対して頑健なシステムでさえ、その入力の小さな、容易に構築された対角的な摂動に影響を受けやすいことを示している。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
本稿では,実システムで観測される重要な動作を高い確率で発生させる,単純な汎用的・汎用的枠組みを提案する。特に,逆攻撃を容易に構築するための(その他に正確な)モデルの同時感受性,入力データのランダムな摂動に対するロバスト性について述べる。
この現象は、標準画像分類問題に基づいて訓練された実践的ニューラルネットワークにおいて直接観測され、大きな付加的ランダムノイズでさえネットワークの対向的不安定を誘発することができない。
驚くべきことに、分類器の判断面を訓練と試験データから切り離す小さなマージンでさえ、ランダムにサンプリングされた摂動を用いて敵の感受性が検出されるのを防ぐことができる。
反対に、トレーニングやテスト中に付加音を用いることは、敵の例を根絶したり検出するのに非効率であり、より要求される敵の訓練が必要である。
関連論文リスト
- Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - Adversarial Noises Are Linearly Separable for (Nearly) Random Neural
Networks [46.13404040937189]
通常、特定のモデルを持つ特定の入力に対して生成される逆例は、ニューラルネットワークにとってユビキタスである。
本稿では,一段法で構築した逆方向雑音が対応するラベルを装着した場合に線形分離可能であるという,逆方向雑音の驚くべき特性を明らかにする。
論文 参考訳(メタデータ) (2022-06-09T07:26:46Z) - Why adversarial training can hurt robust accuracy [7.906608953906889]
敵の訓練は、十分なデータが利用可能であれば、小さなサンプルサイズ体制における堅牢な一般化を損なう可能性がある。
我々の証明は、特徴学習モデルにも移行する可能性のある説明的洞察を提供する。
論文 参考訳(メタデータ) (2022-03-03T20:41:38Z) - Robust Training under Label Noise by Over-parameterization [41.03008228953627]
本稿では,トレーニングラベルの比率が低下した分類タスクにおいて,過パラメータ化深層ネットワークの堅牢なトレーニングを行うための原則的手法を提案する。
ラベルノイズはクリーンデータから学んだネットワークと疎結合なので、ノイズをモデル化してデータから分離することを学びます。
注目すべきは、このような単純な手法を用いて訓練を行う場合、様々な実データに対してラベルノイズに対する最先端のテスト精度を示すことである。
論文 参考訳(メタデータ) (2022-02-28T18:50:10Z) - Classification and Adversarial examples in an Overparameterized Linear
Model: A Signal Processing Perspective [10.515544361834241]
最先端のディープラーニング分類器は、無限の逆境摂動に非常に敏感である。
学習されたモデルは、分類が一般化するが回帰はしない中間体制の敵に感受性がある。
敵対的感受性にもかかわらず、これらの特徴による分類は、より一般的に研究されている「非依存的特徴」モデルよりも容易である。
論文 参考訳(メタデータ) (2021-09-27T17:35:42Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。