論文の概要: When adversarial examples are excusable
- arxiv url: http://arxiv.org/abs/2204.11985v1
- Date: Mon, 25 Apr 2022 22:31:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 15:21:04.184982
- Title: When adversarial examples are excusable
- Title(参考訳): 逆の例が吐き出されると
- Authors: Pieter-Jan Kindermans, Charles Staats
- Abstract要約: 線形でない視覚的分類問題に対して,テスト誤差と逆誤差の両方を解析する。
無限のデータでのトレーニングを近似すると、テストエラーは基礎的な真理決定境界に近い傾向にある。
敵の例は至る所で見られ、しばしば明らかな間違いである。
- 参考スコア(独自算出の注目度): 7.807532520582314
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks work remarkably well in practice and theoretically they can
be universal approximators. However, they still make mistakes and a specific
type of them called adversarial errors seem inexcusable to humans. In this
work, we analyze both test errors and adversarial errors on a well controlled
but highly non-linear visual classification problem. We find that, when
approximating training on infinite data, test errors tend to be close to the
ground truth decision boundary. Qualitatively speaking these are also more
difficult for a human. By contrast, adversarial examples can be found almost
everywhere and are often obvious mistakes. However, when we constrain
adversarial examples to the manifold, we observe a 90\% reduction in
adversarial errors. If we inflate the manifold by training with Gaussian noise
we observe a similar effect. In both cases, the remaining adversarial errors
tend to be close to the ground truth decision boundary. Qualitatively, the
remaining adversarial errors are similar to test errors on difficult examples.
They do not have the customary quality of being inexcusable mistakes.
- Abstract(参考訳): ニューラルネットワークは実際に驚くほどうまく機能し、理論的には普遍近似器となる。
しかし、彼らはまだ間違いを犯しておらず、敵対的誤りと呼ばれる特定の種類の間違いは人間には起こらないように見える。
本研究では, よく制御されているが, 非線形な視覚的分類問題に対して, テスト誤差と逆誤差の両方を解析する。
無限データでのトレーニングを近似すると、テストエラーは基底的真理決定境界に近い傾向があることが分かる。
質的に言えば、これは人間にとってもっと難しいことです。
対照的に、敵の例は至る所で見られ、しばしば明らかな誤りである。
しかし、逆例を多様体に限定すると、逆誤差の90%減少が観察される。
ガウス雑音の訓練により多様体を膨らませると、同様の効果が観測される。
どちらの場合も、残りの敵対的誤りは基底的真理決定の境界に近い傾向がある。
定性的には、残りの敵対的エラーは、難しい例のテストエラーに似ている。
彼らは不当な間違いを犯すという習慣的品質を持っていない。
関連論文リスト
- When are ensembles really effective? [49.37269057899679]
分類タスクにおいて,アンサンブルが顕著な性能向上をもたらす時期について検討する。
平均誤差率に対して不一致率が大きくなると,アンサンブルにより性能が大幅に向上することを示す。
アンサンブルが実現し、大きなパフォーマンス改善をもたらすことのない、実践的なシナリオを特定します。
論文 参考訳(メタデータ) (2023-05-21T01:36:25Z) - Coherent errors and readout errors in the surface code [0.0]
読み出しエラーとコヒーレントエラーの組合せが表面コードに与える影響を考察する。
この組み合わせのしきい値と、対応する不整合エラーチャネルのしきい値に近い誤差率を見出す。
論文 参考訳(メタデータ) (2023-03-08T15:50:44Z) - On the Effect of Adversarial Training Against Invariance-based
Adversarial Examples [0.23624125155742057]
この研究は、畳み込みニューラルネットワーク(CNN)における不変性に基づく逆トレーニングの効果に対処する。
本研究は,非分散型および摂動型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型を適用した場合,連続的でなく連続的に実施すべきであることを示す。
論文 参考訳(メタデータ) (2023-02-16T12:35:37Z) - On the Impact of Hard Adversarial Instances on Overfitting in
Adversarial Training [72.95029777394186]
敵の訓練は、敵の攻撃に対してモデルを強固にするための一般的な方法である。
トレーニングインスタンスの観点から,この現象を考察する。
逆行訓練における一般化性能の低下は, 強行訓練に適合するモデルが試みた結果であることを示す。
論文 参考訳(メタデータ) (2021-12-14T12:19:24Z) - Predicting Unreliable Predictions by Shattering a Neural Network [145.3823991041987]
線形ニューラルネットワークは、サブファンクションに分割することができる。
サブファンクションは、独自のアクティベーションパターン、ドメイン、経験的エラーを持っている。
完全なネットワークに対する経験的エラーは、サブファンクションに対する期待として記述できる。
論文 参考訳(メタデータ) (2021-06-15T18:34:41Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - How benign is benign overfitting? [96.07549886487526]
深層ニューラルネットワークにおける敵対的脆弱性の2つの原因について検討する。
ディープニューラルネットワークは基本的にラベルノイズがある場合でも、トレーニングエラーをゼロにする。
我々は、ラベルノイズを敵対的脆弱性の原因の1つとみなしている。
論文 参考訳(メタデータ) (2020-07-08T11:07:10Z) - Adv-BERT: BERT is not robust on misspellings! Generating nature
adversarial samples on BERT [95.88293021131035]
しかし、悪意のある敵のインスタンスがしばしば存在するのではなく、テクトナチュラルなシナリオでモデルがどのように機能するかは定かではない。
この研究は、NLPにおける最先端のTransformerスタイルモデルであるBERTの、ノイズの多いデータを扱うための頑健さを体系的に探求する。
論文 参考訳(メタデータ) (2020-02-27T22:07:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。