論文の概要: Using an ensemble color space model to tackle adversarial examples
- arxiv url: http://arxiv.org/abs/2003.05005v1
- Date: Tue, 10 Mar 2020 21:20:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 21:37:39.346208
- Title: Using an ensemble color space model to tackle adversarial examples
- Title(参考訳): アンサンブル色空間モデルを用いた逆例への取り組み
- Authors: Shreyank N Gowda, Chun Yuan
- Abstract要約: このような攻撃を防御する3段階の手法を提案する。
まず,統計的手法を用いて画像の識別を行う。
第二に、同じモデルに複数の色空間を採用することは、これらの敵対的攻撃と戦うのに役立ちます。
- 参考スコア(独自算出の注目度): 22.732023268348787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Minute pixel changes in an image drastically change the prediction that the
deep learning model makes. One of the most significant problems that could
arise due to this, for instance, is autonomous driving. Many methods have been
proposed to combat this with varying amounts of success. We propose a 3 step
method for defending such attacks. First, we denoise the image using
statistical methods. Second, we show that adopting multiple color spaces in the
same model can help us to fight these adversarial attacks further as each color
space detects certain features explicit to itself. Finally, the feature maps
generated are enlarged and sent back as an input to obtain even smaller
features. We show that the proposed model does not need to be trained to defend
an particular type of attack and is inherently more robust to black-box,
white-box, and grey-box adversarial attack techniques. In particular, the model
is 56.12 percent more robust than compared models in case of white box attacks
when the models are not subject to adversarial example training.
- Abstract(参考訳): 画像中の微小ピクセルの変化は、ディープラーニングモデルが生み出す予測を大幅に変える。
例えば、これが原因で起こりうる最も重要な問題の1つは、自動運転だ。
これに対処するために様々な方法が提案されている。
このような攻撃を防御する3段階の手法を提案する。
まず,統計的手法を用いて画像の識別を行う。
第二に、同じモデルに複数の色空間を採用することで、各色空間がそれ自身に明示的な特徴を検出することによって、これらの敵対的攻撃と戦うことができることを示す。
最後に、生成された特徴マップを拡大し、入力として送り返してさらに小さな特徴を得る。
提案モデルは,特定の攻撃を防御するために訓練される必要はなく,本質的にはブラックボックス,ホワイトボックス,グレイボックスの対向攻撃技術に頑健であることを示す。
特に、モデルが敵対的な例の訓練を受けていない場合、ホワイトボックス攻撃の場合、このモデルは比較モデルよりも56.12%頑丈である。
関連論文リスト
- Understanding the Robustness of Randomized Feature Defense Against
Query-Based Adversarial Attacks [23.010308600769545]
ディープニューラルネットワークは、元の画像に近いサンプルを見つける敵の例に弱いが、モデルを誤分類させる可能性がある。
モデル中間層における隠れた特徴にランダムノイズを付加することにより,ブラックボックス攻撃に対する簡易かつ軽量な防御法を提案する。
本手法は,スコアベースと決定ベースの両方のブラックボックス攻撃に対するモデルのレジリエンスを効果的に向上させる。
論文 参考訳(メタデータ) (2023-10-01T03:53:23Z) - Scalable Membership Inference Attacks via Quantile Regression [35.33158339354343]
メンバーシップ推論攻撃は、トレーニングで特定の例が使用されたかどうかに関わらず、トレーニングされたモデルへのブラックボックスアクセスを使用して決定するように設計されている。
本稿では,トレーニングに使用されていない点に対する攻撃下でモデルによって誘導される信頼度スコアの分布に基づいて,量子回帰に基づく新たな攻撃方法を提案する。
論文 参考訳(メタデータ) (2023-07-07T16:07:00Z) - Patch of Invisibility: Naturalistic Physical Black-Box Adversarial Attacks on Object Detectors [0.0]
対象検出器に対する自然主義的物理逆パッチを生成するために, 直接的, ブラックボックス, グラデーションフリーな手法を提案する。
我々の知る限り、これはオブジェクト検出モデルに直接ブラックボックス物理攻撃を実行する最初の、かつ唯一の方法である。
論文 参考訳(メタデータ) (2023-03-07T21:03:48Z) - Frequency Domain Model Augmentation for Adversarial Attack [91.36850162147678]
ブラックボックス攻撃の場合、代用モデルと被害者モデルの間のギャップは通常大きい。
そこで本研究では,通常の訓練モデルと防衛モデルの両方に対して,より伝達可能な対角線モデルを構築するための新しいスペクトルシミュレーション攻撃を提案する。
論文 参考訳(メタデータ) (2022-07-12T08:26:21Z) - Art-Attack: Black-Box Adversarial Attack via Evolutionary Art [5.760976250387322]
ディープニューラルネットワーク(DNN)は多くのタスクで最先端のパフォーマンスを達成したが、敵の例によって生成された攻撃に対して極端な脆弱性を示している。
本稿では, 進化芸術の概念を用いて, 敵対的事例を生成することによって, 勾配のない攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-07T12:54:09Z) - Cross-Modal Transferable Adversarial Attacks from Images to Videos [82.0745476838865]
近年の研究では、一方のホワイトボックスモデルで手作りされた敵の例は、他のブラックボックスモデルを攻撃するために使用できることが示されている。
本稿では,イメージ・トゥ・ビデオ(I2V)攻撃と呼ばれる,シンプルだが効果的なクロスモーダル・アタック手法を提案する。
I2Vは、事前訓練された画像モデルの特徴と良質な例とのコサイン類似性を最小化して、対向フレームを生成する。
論文 参考訳(メタデータ) (2021-12-10T08:19:03Z) - "What's in the box?!": Deflecting Adversarial Attacks by Randomly
Deploying Adversarially-Disjoint Models [71.91835408379602]
敵の例は長い間、機械学習モデルに対する真の脅威と考えられてきた。
我々は、従来のホワイトボックスやブラックボックスの脅威モデルを超えた、配置ベースの防衛パラダイムを提案する。
論文 参考訳(メタデータ) (2021-02-09T20:07:13Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - Adversarial Imitation Attack [63.76805962712481]
現実的な敵攻撃は、攻撃されたモデルの知識をできるだけ少なくする必要がある。
現在の代替攻撃では、敵の例を生成するために事前訓練されたモデルが必要である。
本研究では,新たな敵模倣攻撃を提案する。
論文 参考訳(メタデータ) (2020-03-28T10:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。