論文の概要: ManiGen: A Manifold Aided Black-box Generator of Adversarial Examples
- arxiv url: http://arxiv.org/abs/2007.05817v1
- Date: Sat, 11 Jul 2020 17:34:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 13:29:14.794843
- Title: ManiGen: A Manifold Aided Black-box Generator of Adversarial Examples
- Title(参考訳): manigen: 逆例の多様体支援ブラックボックス生成器
- Authors: Guanxiong Liu, Issa Khalil, Abdallah Khreishah, Abdulelah Algosaibi,
Adel Aldalbahi, Mohammed Alaneem, Abdulaziz Alhumam, Mohammed Anan
- Abstract要約: 適応的な例は、人間の目によって無視される特別な摂動を持つ入力である。
ManiGen は多様体に沿って探索することで逆例を生成する。
ManiGenは、最先端の防御でより効果的に分類器を攻撃することができる。
- 参考スコア(独自算出の注目度): 4.509133544449485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models, especially neural network (NN) classifiers, have
acceptable performance and accuracy that leads to their wide adoption in
different aspects of our daily lives. The underlying assumption is that these
models are generated and used in attack free scenarios. However, it has been
shown that neural network based classifiers are vulnerable to adversarial
examples. Adversarial examples are inputs with special perturbations that are
ignored by human eyes while can mislead NN classifiers. Most of the existing
methods for generating such perturbations require a certain level of knowledge
about the target classifier, which makes them not very practical. For example,
some generators require knowledge of pre-softmax logits while others utilize
prediction scores.
In this paper, we design a practical black-box adversarial example generator,
dubbed ManiGen. ManiGen does not require any knowledge of the inner state of
the target classifier. It generates adversarial examples by searching along the
manifold, which is a concise representation of input data. Through extensive
set of experiments on different datasets, we show that (1) adversarial examples
generated by ManiGen can mislead standalone classifiers by being as successful
as the state-of-the-art white-box generator, Carlini, and (2) adversarial
examples generated by ManiGen can more effectively attack classifiers with
state-of-the-art defenses.
- Abstract(参考訳): 機械学習モデル、特にニューラルネットワーク(NN)分類器は、日々のさまざまな側面において広く採用されるように、パフォーマンスと精度を許容できる。
基本的な前提は、これらのモデルが生成され、アタックフリーシナリオで使用されることである。
しかし、ニューラルネットワークに基づく分類器は敵の例に弱いことが示されている。
逆の例は、人間の目で無視される特別な摂動を持つ入力であり、NN分類器を誤解させる可能性がある。
このような摂動を生成する既存の方法の多くは、ターゲット分類器に関する一定のレベルの知識を必要とするため、あまり実践的ではない。
例えば、一部のジェネレータはプレソフトマックスロジットの知識を必要とし、他のジェネレータは予測スコアを使用する。
本稿では,実効的なブラックボックス逆例生成器manigenを設計した。
ManiGenはターゲット分類器の内部状態に関する知識を一切必要としない。
入力データの簡潔な表現である多様体に沿って探索することで、逆例を生成する。
異なるデータセットに対する広範な実験を通して,(1) ManiGen が生成した逆の例は,最先端のホワイトボックス生成器であるCarliini と同じくらい成功し,(2) ManiGen が生成した逆の例は,最先端の防御でより効果的に分類器を攻撃できることを示す。
関連論文リスト
- Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection [83.72430401516674]
GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
論文 参考訳(メタデータ) (2024-07-17T03:24:09Z) - Forging the Forger: An Attempt to Improve Authorship Verification via Data Augmentation [52.72682366640554]
著者検証(英語: Authorship Verification, AV)とは、ある特定の著者によって書かれたか、別の人物によって書かれたのかを推測するテキスト分類タスクである。
多くのAVシステムは敵の攻撃に弱いことが示されており、悪意のある著者は、その書体スタイルを隠蔽するか、あるいは他の著者の書体を模倣することによって、積極的に分類者を騙そうとしている。
論文 参考訳(メタデータ) (2024-03-17T16:36:26Z) - NaturalAdversaries: Can Naturalistic Adversaries Be as Effective as
Artificial Adversaries? [61.58261351116679]
自然言語理解タスクのための2段階の逆例生成フレームワーク(NaturalAdversaries)を提案する。
モデルパラメータへのアクセスレベルに基づいて、ブラックボックスとホワイトボックスの双方に適応可能である。
以上の結果から,これらの対立はドメイン全体にわたって一般化され,ニューラルネットワーク分類モデルの堅牢性向上に向けた今後の研究への洞察が得られた。
論文 参考訳(メタデータ) (2022-11-08T16:37:34Z) - Towards Generating Adversarial Examples on Mixed-type Data [32.41305735919529]
そこで本研究では,M-Attackを用いた攻撃アルゴリズムを提案する。
M-Attackをベースとした攻撃者は、与えられたデータサンプルの数値的特徴と分類的特徴の両方をわずかに摂動させることで、ターゲットの分類モデルの予測を誤解させようとする。
我々の生成した敵の例は潜在的な検出モデルを避けることができるため、攻撃は本当に惨めである。
論文 参考訳(メタデータ) (2022-10-17T20:17:21Z) - ECINN: Efficient Counterfactuals from Invertible Neural Networks [80.94500245955591]
本稿では, 画像分類における可逆ニューラルネットワークの生成能力を利用して, 対実例を効率的に生成する手法ECINNを提案する。
ECINNはクローズドフォーム表現を持ち、たった2つの評価の時点で反事実を生成する。
私たちの実験では、ECINNがクラス依存イメージ領域を変更して、反現実の知覚的および予測的クラスを変更する方法を示す。
論文 参考訳(メタデータ) (2021-03-25T09:23:24Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Differentiable Language Model Adversarial Attacks on Categorical
Sequence Classifiers [0.0]
敵対的攻撃パラダイムは、ディープラーニングモデルの脆弱性の様々なシナリオを探索する。
本研究では,言語モデルの微調整を,敵対的攻撃のジェネレータとして利用する。
我々のモデルは、銀行取引、電子健康記録、NLPデータセットに関する多様なデータセットに対して機能する。
論文 参考訳(メタデータ) (2020-06-19T11:25:36Z) - Adversarial Machine Learning in Network Intrusion Detection Systems [6.18778092044887]
ネットワーク侵入検知システムにおける逆問題の性質について検討する。
進化的計算(粒子群最適化と遺伝的アルゴリズム)と深層学習(生成的敵ネットワーク)を、敵対的サンプル生成のためのツールとして利用する。
我々の研究は、敵の摂動に直面した機械学習ベースのNIDSの脆弱性を強調している。
論文 参考訳(メタデータ) (2020-04-23T19:47:43Z) - Generating Natural Adversarial Hyperspectral examples with a modified
Wasserstein GAN [0.0]
本稿では,第2パラダイムに従う真のデータから,自然な逆例を生成できる新しい手法を提案する。
リモートセンシングデータセット上で逆スペクトル超スペクトルシグネチャを生成することによって,本手法の概念実証を行う。
論文 参考訳(メタデータ) (2020-01-27T07:32:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。