論文の概要: Perlin Noise Improve Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2112.13408v1
- Date: Sun, 26 Dec 2021 15:58:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 14:41:35.971453
- Title: Perlin Noise Improve Adversarial Robustness
- Title(参考訳): パーリンノイズによる対向ロバスト性の改善
- Authors: Chengjun Tang, Kun Zhang, Chunfang Xing, Yong Ding, Zengmin Xu
- Abstract要約: 敵対的な例は、ディープニューラルネットワークの出力を摂動できる特別な入力である。
逆例を生成する方法の多くは勾配情報を必要とする。
手続き的雑音対向例は、新しい対向例生成方法である。
- 参考スコア(独自算出の注目度): 9.084544535198509
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Adversarial examples are some special input that can perturb the output of a
deep neural network, in order to make produce intentional errors in the
learning algorithms in the production environment. Most of the present methods
for generating adversarial examples require gradient information. Even
universal perturbations that are not relevant to the generative model rely to
some extent on gradient information. Procedural noise adversarial examples is a
new way of adversarial example generation, which uses computer graphics noise
to generate universal adversarial perturbations quickly while not relying on
gradient information. Combined with the defensive idea of adversarial training,
we use Perlin noise to train the neural network to obtain a model that can
defend against procedural noise adversarial examples. In combination with the
use of model fine-tuning methods based on pre-trained models, we obtain faster
training as well as higher accuracy. Our study shows that procedural noise
adversarial examples are defensible, but why procedural noise can generate
adversarial examples and how to defend against other kinds of procedural noise
adversarial examples that may emerge in the future remain to be investigated.
- Abstract(参考訳): 敵対的な例は、プロダクション環境における学習アルゴリズムにおいて意図的な誤りを生み出すために、ディープニューラルネットワークの出力を乱すことができる特別な入力である。
逆例を生成する方法の多くは勾配情報を必要とする。
生成モデルに関係のない普遍摂動でさえ、勾配情報にある程度依存している。
手続き的雑音回避例(procedural noise adversarial examples)は、コンピュータグラフィックスノイズを使用して、勾配情報に頼らずに、普遍的な逆さまの摂動を素早く生成する、新しい逆さまの例生成方法である。
敵意トレーニングの防御的アイデアと組み合わせることで,perlinノイズをニューラルネットワークのトレーニングに利用し,手続き的ノイズ攻撃例から防御可能なモデルを得る。
事前学習モデルに基づくモデルの微調整手法と組み合わせることで,より高速かつ高精度なトレーニングを実現する。
本研究は, 手続き性雑音の逆用例が否定可能であることを示し, 手続き性雑音が逆用例を生成する理由と, 今後出現する他の手続き性雑音逆用例に対する防御法について検討する。
関連論文リスト
- Blue noise for diffusion models [50.99852321110366]
本稿では,画像内および画像間の相関雑音を考慮した拡散モデルを提案する。
我々のフレームワークは、勾配流を改善するために、1つのミニバッチ内に画像間の相関を導入することができる。
本手法を用いて,各種データセットの質的,定量的な評価を行う。
論文 参考訳(メタデータ) (2024-02-07T14:59:25Z) - Robust Unlearnable Examples: Protecting Data Against Adversarial
Learning [77.6015932710068]
本稿では,誤り最小化ノイズを付加することにより,ディープラーニングモデルにデータを学習不能にすることを提案する。
本稿では,敵の訓練から保護される頑健な学習不可能な事例を生成するための新しい手法を設計する。
実験により, 強靭な誤り最小化ノイズによる難読性は, 種々のシナリオにおいて, 敵の訓練からデータを効果的に保護できることが示唆された。
論文 参考訳(メタデータ) (2022-03-28T07:13:51Z) - On Procedural Adversarial Noise Attack And Defense [2.5388455804357952]
逆の例では、ニューラルネットワークが入力画像に小さな修正を加えて予測エラーを発生させる。
本稿では,手続き型雑音関数に基づく2つのユニバーサル対向摂動(UAP)生成手法を提案する。
セマンティック表現を変更することなく、我々の手法によって生成された敵の例は攻撃に対して優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-10T02:47:01Z) - Removing Adversarial Noise in Class Activation Feature Space [160.78488162713498]
クラスアクティベーション機能空間において,自己監視型対人訓練機構を実装することにより,対人雑音の除去を提案する。
クラスアクティベーション機能空間における敵対例と自然な例の間の距離を最小にするために、デノイジングモデルを訓練する。
経験的評価により, 従来の手法と比較して, 敵対的堅牢性が有意に向上できることが示された。
論文 参考訳(メタデータ) (2021-04-19T10:42:24Z) - Exponentiated Gradient Reweighting for Robust Training Under Label Noise
and Beyond [21.594200327544968]
ノイズの多い例から学ぶための柔軟なアプローチを提案する。
具体的には、各トレーニング例を専門家として扱い、すべての例に分散を維持します。
他の関連する手法とは異なり、このアプローチは損失関数の一般的なクラスを扱い、幅広いノイズタイプやアプリケーションに適用できる。
論文 参考訳(メタデータ) (2021-04-03T22:54:49Z) - Improving Transformation-based Defenses against Adversarial Examples
with First-order Perturbations [16.346349209014182]
研究によると、ニューラルネットワークは敵の攻撃を受けやすい。
これにより、ニューラルネットワークベースのインテリジェントシステムに対する潜在的な脅威が露呈する。
本稿では, 対向性強靭性を改善するために, 対向性摂動に対処する手法を提案する。
論文 参考訳(メタデータ) (2021-03-08T06:27:24Z) - Adversarial Examples for Unsupervised Machine Learning Models [71.81480647638529]
回避予測を引き起こすアドリラルな例は、機械学習モデルの堅牢性を評価し改善するために広く利用されている。
教師なしモデルに対する逆例生成の枠組みを提案し,データ拡張への新たな応用を実証する。
論文 参考訳(メタデータ) (2021-03-02T17:47:58Z) - Improved Detection of Adversarial Images Using Deep Neural Networks [2.3993545400014873]
近年の研究では、分類タスクに使用される機械学習モデルは、敵の例に弱いことが示されている。
本稿では,逆入力を検出するための特徴マップデノゲーションという新しい手法を提案する。
逆例からなる混合データセットにおける検出性能を示す。
論文 参考訳(メタデータ) (2020-07-10T19:02:24Z) - How benign is benign overfitting? [96.07549886487526]
深層ニューラルネットワークにおける敵対的脆弱性の2つの原因について検討する。
ディープニューラルネットワークは基本的にラベルノイズがある場合でも、トレーニングエラーをゼロにする。
我々は、ラベルノイズを敵対的脆弱性の原因の1つとみなしている。
論文 参考訳(メタデータ) (2020-07-08T11:07:10Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。