論文の概要: AdvFoolGen: Creating Persistent Troubles for Deep Classifiers
- arxiv url: http://arxiv.org/abs/2007.10485v1
- Date: Mon, 20 Jul 2020 21:27:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 14:15:19.209616
- Title: AdvFoolGen: Creating Persistent Troubles for Deep Classifiers
- Title(参考訳): AdvFoolGen: 深い分類のための永続的なトラブルの作成
- Authors: Yuzhen Ding, Nupur Thakur, Baoxin Li
- Abstract要約: 本稿では,自然画像と同じ特徴空間から攻撃画像を生成するAdvFoolGenというブラックボックス攻撃を提案する。
我々は、最先端の防衛技術に直面する攻撃の有効性と堅牢性を実証する。
- 参考スコア(独自算出の注目度): 17.709146615433458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Researches have shown that deep neural networks are vulnerable to malicious
attacks, where adversarial images are created to trick a network into
misclassification even if the images may give rise to totally different labels
by human eyes. To make deep networks more robust to such attacks, many defense
mechanisms have been proposed in the literature, some of which are quite
effective for guarding against typical attacks. In this paper, we present a new
black-box attack termed AdvFoolGen, which can generate attacking images from
the same feature space as that of the natural images, so as to keep baffling
the network even though state-of-the-art defense mechanisms have been applied.
We systematically evaluate our model by comparing with well-established attack
algorithms. Through experiments, we demonstrate the effectiveness and
robustness of our attack in the face of state-of-the-art defense techniques and
unveil the potential reasons for its effectiveness through principled analysis.
As such, AdvFoolGen contributes to understanding the vulnerability of deep
networks from a new perspective and may, in turn, help in developing and
evaluating new defense mechanisms.
- Abstract(参考訳): 研究によると、ディープニューラルネットワークは悪意のある攻撃に弱いことが示されており、敵画像は、たとえ画像が人間の目によって全く異なるラベルを生み出したとしても、ネットワークを不正に分類するために敵画像を作成する。
このような攻撃に対してディープネットワークをより強固にするために、文献では多くの防御機構が提案されており、それらの一部は典型的な攻撃に対する防御に非常に効果的である。
本稿では,AdvFoolGenと呼ばれる新たなブラックボックス攻撃手法を提案する。これは,最先端の防御機構が適用されている場合でも,ネットワークをバッフルし続けるために,自然画像と同じ特徴空間から攻撃画像を生成する。
我々は,確立した攻撃アルゴリズムとの比較により,モデルを評価する。
実験により,最先端の防御技術に直面する攻撃の有効性と頑健性を実証し,原理分析による攻撃効果の可能性を明らかにした。
そのため、AdvFoolGenは新しい視点からディープネットワークの脆弱性を理解することに貢献し、その結果、新しい防御メカニズムの開発と評価に役立てることができる。
関連論文リスト
- Protecting Feed-Forward Networks from Adversarial Attacks Using Predictive Coding [0.20718016474717196]
逆の例は、機械学習(ML)モデルが誤りを犯すように設計された、修正された入力イメージである。
本研究では,敵防衛のための補助的なステップとして,予測符号化ネットワーク(PCnet)を用いた実用的で効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T21:38:05Z) - A Hybrid Training-time and Run-time Defense Against Adversarial Attacks in Modulation Classification [35.061430235135155]
機械学習に基づく無線信号(変調)分類を敵攻撃から保護するための訓練時間と実行時間の両方の防御技術に基づく防御機構。
ホワイトボックスのシナリオと実際のデータセットを考慮すると、提案手法が既存の最先端技術より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-09T12:28:38Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Preemptive Image Robustification for Protecting Users against
Man-in-the-Middle Adversarial Attacks [16.017328736786922]
Man-in-the-Middleの敵対者は、ウェブユーザーがオンラインでアップロードした画像を悪意を持って傍受し、妨害する。
この種の攻撃は、単純なパフォーマンス劣化の上に厳しい倫理的懸念を引き起こす可能性がある。
本研究では, 対向摂動に頑健な自然画像近傍の点を求める2段階最適化アルゴリズムを考案した。
論文 参考訳(メタデータ) (2021-12-10T16:06:03Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。