論文の概要: Generating Natural Adversarial Hyperspectral examples with a modified
Wasserstein GAN
- arxiv url: http://arxiv.org/abs/2001.09993v1
- Date: Mon, 27 Jan 2020 07:32:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 07:22:40.399598
- Title: Generating Natural Adversarial Hyperspectral examples with a modified
Wasserstein GAN
- Title(参考訳): 修正wasserstein ganを用いた自然逆行性ハイパースペクトル例の生成
- Authors: Jean-Christophe Burnel (OBELIX), Kilian Fatras (OBELIX), Nicolas
Courty (OBELIX)
- Abstract要約: 本稿では,第2パラダイムに従う真のデータから,自然な逆例を生成できる新しい手法を提案する。
リモートセンシングデータセット上で逆スペクトル超スペクトルシグネチャを生成することによって,本手法の概念実証を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples are a hot topic due to their abilities to fool a
classifier's prediction. There are two strategies to create such examples, one
uses the attacked classifier's gradients, while the other only requires access
to the clas-sifier's prediction. This is particularly appealing when the
classifier is not full known (black box model). In this paper, we present a new
method which is able to generate natural adversarial examples from the true
data following the second paradigm. Based on Generative Adversarial Networks
(GANs) [5], it reweights the true data empirical distribution to encourage the
classifier to generate ad-versarial examples. We provide a proof of concept of
our method by generating adversarial hyperspectral signatures on a remote
sensing dataset.
- Abstract(参考訳): 逆の例は、分類器の予測を騙す能力のため、ホットなトピックである。
そのような例を作成するには2つの戦略がある。一方は攻撃された分類器の勾配を使い、もう一方はクラス化器の予測にのみアクセスする必要がある。
これは分類器が完全には知られていない場合(ブラックボックスモデル)に特に魅力的である。
本稿では,第2のパラダイムに従って,実データから自然逆例を生成できる新しい手法を提案する。
GAN(Generative Adversarial Networks) [5] に基づいて、真のデータ経験分布を重み付け、分類器にアドリバーシャルな例を生成するよう促す。
本稿では,リモートセンシングデータセット上で逆スペクトルシグネチャを生成することにより,提案手法の概念実証を行う。
関連論文リスト
- Wide Two-Layer Networks can Learn from Adversarial Perturbations [27.368408524000778]
摂動学習の反直感的成功を理論的に説明する。
対角摂動は、ネットワークがそれらから一般化するのに十分なクラス固有の特徴を含むことを証明している。
論文 参考訳(メタデータ) (2024-10-31T06:55:57Z) - Forging the Forger: An Attempt to Improve Authorship Verification via Data Augmentation [52.72682366640554]
著者検証(英語: Authorship Verification, AV)とは、ある特定の著者によって書かれたか、別の人物によって書かれたのかを推測するテキスト分類タスクである。
多くのAVシステムは敵の攻撃に弱いことが示されており、悪意のある著者は、その書体スタイルを隠蔽するか、あるいは他の著者の書体を模倣することによって、積極的に分類者を騙そうとしている。
論文 参考訳(メタデータ) (2024-03-17T16:36:26Z) - NaturalAdversaries: Can Naturalistic Adversaries Be as Effective as
Artificial Adversaries? [61.58261351116679]
自然言語理解タスクのための2段階の逆例生成フレームワーク(NaturalAdversaries)を提案する。
モデルパラメータへのアクセスレベルに基づいて、ブラックボックスとホワイトボックスの双方に適応可能である。
以上の結果から,これらの対立はドメイン全体にわたって一般化され,ニューラルネットワーク分類モデルの堅牢性向上に向けた今後の研究への洞察が得られた。
論文 参考訳(メタデータ) (2022-11-08T16:37:34Z) - Unrestricted Adversarial Samples Based on Non-semantic Feature Clusters
Substitution [1.8782750537161608]
モデルトレーニングで学習した突発的関係を利用して, 対向的なサンプルを生成する「制限なし」摂動を導入する。
具体的には,モデル判定結果と強く相関する非意味的特徴に特徴クラスタが存在する。
対象画像の対応する特徴クラスタを置き換えるために,それらを用いて対向サンプルを作成する。
論文 参考訳(メタデータ) (2022-08-31T07:42:36Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Second-Order NLP Adversarial Examples [0.18855270809505867]
適応例生成法は言語モデルや文エンコーダのようなモデルに頼り、潜在的な敵対例が有効かどうかを判断する。
これらの方法では、有効な敵の例は攻撃されているモデルを騙し、セマンティックまたは構文的に第2のモデルによって有効であると判断される。
これらの逆例は攻撃されたモデルにおける欠陥ではなく、有効性を決定するモデルにおける欠陥である、と我々は主張する。
論文 参考訳(メタデータ) (2020-10-05T04:32:38Z) - ManiGen: A Manifold Aided Black-box Generator of Adversarial Examples [4.509133544449485]
適応的な例は、人間の目によって無視される特別な摂動を持つ入力である。
ManiGen は多様体に沿って探索することで逆例を生成する。
ManiGenは、最先端の防御でより効果的に分類器を攻撃することができる。
論文 参考訳(メタデータ) (2020-07-11T17:34:17Z) - Fundamental Tradeoffs between Invariance and Sensitivity to Adversarial
Perturbations [65.05561023880351]
敵の例は誤分類を引き起こすために作られた悪意のある入力である。
本稿では, 相補的障害モード, 不変性に基づく逆数例について検討する。
感度に基づく攻撃に対する防御は、不変性に基づく攻撃に対するモデルの精度を積極的に損なうことを示す。
論文 参考訳(メタデータ) (2020-02-11T18:50:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。