論文の概要: Toward Adversarial Robustness by Diversity in an Ensemble of Specialized
Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2005.08321v1
- Date: Sun, 17 May 2020 17:54:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 05:26:11.814687
- Title: Toward Adversarial Robustness by Diversity in an Ensemble of Specialized
Deep Neural Networks
- Title(参考訳): 特殊化深層ニューラルネットワークの集合における多様性による対向ロバスト性に向けて
- Authors: Mahdieh Abbasi and Arezoo Rajabi and Christian Gagne and Rakesh B.
Bobba
- Abstract要約: 本稿では,多種多様なCNNとシンプルな投票機構のアンサンブルを提案する。
我々は、よく知られたブラックボックスの敵対的な例の多くを検出するためのアンサンブルの能力を実証的に検証した。
コンサンブルによるホワイトボックス攻撃の成功率は,バニラCNNと比較して著しく減少している。
- 参考スコア(独自算出の注目度): 5.459753761530944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We aim at demonstrating the influence of diversity in the ensemble of CNNs on
the detection of black-box adversarial instances and hardening the generation
of white-box adversarial attacks. To this end, we propose an ensemble of
diverse specialized CNNs along with a simple voting mechanism. The diversity in
this ensemble creates a gap between the predictive confidences of adversaries
and those of clean samples, making adversaries detectable. We then analyze how
diversity in such an ensemble of specialists may mitigate the risk of the
black-box and white-box adversarial examples. Using MNIST and CIFAR-10, we
empirically verify the ability of our ensemble to detect a large portion of
well-known black-box adversarial examples, which leads to a significant
reduction in the risk rate of adversaries, at the expense of a small increase
in the risk rate of clean samples. Moreover, we show that the success rate of
generating white-box attacks by our ensemble is remarkably decreased compared
to a vanilla CNN and an ensemble of vanilla CNNs, highlighting the beneficial
role of diversity in the ensemble for developing more robust models.
- Abstract(参考訳): 我々は,CNNのアンサンブルにおける多様性がブラックボックスの敵インスタンスの検出およびホワイトボックスの敵攻撃の発生に及ぼす影響を明らかにすることを目的とする。
そこで本研究では,シンプルな投票機構とともに,多様なCNNのアンサンブルを提案する。
このアンサンブルの多様性は、敵の予測的自信とクリーンサンプルの信頼のギャップを生じさせ、敵を検出できる。
次に,このような専門家集団における多様性が,ブラックボックスとホワイトボックスの敵対的事例のリスクをいかに軽減するかを分析する。
mnist と cifar-10 を用いて, 既知のブラックボックス攻撃例の大部分を検出するアンサンブルの有効性を実証し, クリーンサンプルのリスク率の小さな増加を犠牲にして, 敵のリスク率を大幅に削減した。
さらに,バニラcnnおよびバニラcnnのアンサンブルと比較して,このアンサンブルによるホワイトボックス攻撃の成功率は著しく減少し,より堅牢なモデルを開発する上での多様性の有益性を強調した。
関連論文リスト
- Aggressive or Imperceptible, or Both: Network Pruning Assisted Hybrid Byzantines in Federated Learning [6.384138583754105]
フェデレートラーニング(FL)は、多種多様なクライアント(おそらくモバイルデバイス)が、一般化された機械学習モデルの生成に協力できるようにするために導入された。
多数のクライアントが参加しているため、各クライアントのプロファイルと検証が難しい場合が多いため、セキュリティ上の脅威が発生します。
本研究では,より高感度のNN位置のみを攻撃し,さらに時間とともに蓄積するハイブリッド・スパルス・ビザンチン攻撃を導入する。
論文 参考訳(メタデータ) (2024-04-09T11:42:32Z) - Breaking Free: How to Hack Safety Guardrails in Black-Box Diffusion Models! [52.0855711767075]
EvoSeedは、フォトリアリスティックな自然対向サンプルを生成するための進化戦略に基づくアルゴリズムフレームワークである。
我々は,CMA-ESを用いて初期種ベクトルの探索を最適化し,条件付き拡散モデルで処理すると,自然逆数サンプルをモデルで誤分類する。
実験の結果, 生成した対向画像は画像品質が高く, 安全分類器を通過させることで有害なコンテンツを生成する懸念が高まっていることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:39:29Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Understanding the Robustness of Randomized Feature Defense Against
Query-Based Adversarial Attacks [23.010308600769545]
ディープニューラルネットワークは、元の画像に近いサンプルを見つける敵の例に弱いが、モデルを誤分類させる可能性がある。
モデル中間層における隠れた特徴にランダムノイズを付加することにより,ブラックボックス攻撃に対する簡易かつ軽量な防御法を提案する。
本手法は,スコアベースと決定ベースの両方のブラックボックス攻撃に対するモデルのレジリエンスを効果的に向上させる。
論文 参考訳(メタデータ) (2023-10-01T03:53:23Z) - Adversarial training may be a double-edged sword [50.09831237090801]
深層ネットワークの決定境界における敵対的トレーニングの幾らかの幾何学的結果が、ある種のブラックボックス攻撃のエッジとなることを示す。
特に、敵の訓練がホワイトボックスシナリオのロバスト性を大幅に改善する効果的な方法であることを示すために、ロバストネスゲインと呼ばれる指標を定義するが、より現実的な意思決定ベースのブラックボックス攻撃に対して、そのようなロバストネスゲインを提供することはできない。
論文 参考訳(メタデータ) (2021-07-24T19:09:16Z) - "What's in the box?!": Deflecting Adversarial Attacks by Randomly
Deploying Adversarially-Disjoint Models [71.91835408379602]
敵の例は長い間、機械学習モデルに対する真の脅威と考えられてきた。
我々は、従来のホワイトボックスやブラックボックスの脅威モデルを超えた、配置ベースの防衛パラダイムを提案する。
論文 参考訳(メタデータ) (2021-02-09T20:07:13Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - Perception Improvement for Free: Exploring Imperceptible Black-box
Adversarial Attacks on Image Classification [27.23874129994179]
ホワイトボックスの敵攻撃は、特に大きな画像の場合、小さな摂動を伴うニューラルネットワークを騙すことができる。
逆行性摂動を成功させることは、特にトランスファーベースのブラックボックス逆行攻撃では困難である。
本稿では,心理的知覚モデルに基づく対向画像の生成による構造認識型対向攻撃を提案する。
論文 参考訳(メタデータ) (2020-10-30T07:17:12Z) - Diversity can be Transferred: Output Diversification for White- and
Black-box Attacks [89.92353493977173]
アドリア攻撃は、例えば最適化ベースのホワイトボックス攻撃を初期化したり、ブラックボックス攻撃で更新方向を生成するために、均一あるいはガウス分布から引き出された入力のランダムな摂動を伴うことが多い。
本稿では,対象モデルの出力の多様性を最大化するための新しいサンプリング手法である出力分散サンプリング(ODS)を提案する。
ODSは、既存のホワイトボックス攻撃とブラックボックス攻撃のパフォーマンスを大幅に改善する。
特に、ODSはImageNetに対する最先端のブラックボックス攻撃に必要なクエリ数を2倍に削減する。
論文 参考訳(メタデータ) (2020-03-15T17:49:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。