論文の概要: Multi-objective Search of Robust Neural Architectures against Multiple
Types of Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2101.06507v1
- Date: Sat, 16 Jan 2021 19:38:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-03-28 04:33:02.138544
- Title: Multi-objective Search of Robust Neural Architectures against Multiple
Types of Adversarial Attacks
- Title(参考訳): 複数種類の敵攻撃に対するロバストニューラルネットワークの多目的探索
- Authors: Jia Liu and Yaochu Jin
- Abstract要約: 深層学習モデルは、人間には受け入れられない敵の例に弱い。
機械学習モデルがどのタイプの攻撃に苦しむかを事前に予測することは事実上不可能である。
本稿では,多目的進化アルゴリズムを用いた5種類の既知の敵攻撃に対して頑健な深層ニューラルネットワークの探索を提案する。
- 参考スコア(独自算出の注目度): 18.681859032630374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many existing deep learning models are vulnerable to adversarial examples
that are imperceptible to humans. To address this issue, various methods have
been proposed to design network architectures that are robust to one particular
type of adversarial attacks. It is practically impossible, however, to predict
beforehand which type of attacks a machine learn model may suffer from. To
address this challenge, we propose to search for deep neural architectures that
are robust to five types of well-known adversarial attacks using a
multi-objective evolutionary algorithm. To reduce the computational cost, a
normalized error rate of a randomly chosen attack is calculated as the
robustness for each newly generated neural architecture at each generation. All
non-dominated network architectures obtained by the proposed method are then
fully trained against randomly chosen adversarial attacks and tested on two
widely used datasets. Our experimental results demonstrate the superiority of
optimized neural architectures found by the proposed approach over
state-of-the-art networks that are widely used in the literature in terms of
the classification accuracy under different adversarial attacks.
- Abstract(参考訳): 既存のディープラーニングモデルの多くは、人間には受け入れがたい敵の例に弱い。
この問題に対処するために、特定の種類の敵攻撃に対して堅牢なネットワークアーキテクチャを設計するための様々な手法が提案されている。
しかし、機械学習モデルがどの種類の攻撃に苦しむかを事前に予測することは事実上不可能である。
この課題に対処するために,多目的進化アルゴリズムを用いた5種類の既知の敵攻撃に対して頑健なディープニューラルアーキテクチャの探索を提案する。
計算コストを低減するため、各世代で新たに生成されたニューラルアーキテクチャ毎にランダムに選択された攻撃の正規化エラー率をロバスト性として算出する。
提案手法によって得られた非支配型ネットワークアーキテクチャはすべて、ランダムに選択された攻撃に対して完全に訓練され、広く使用されている2つのデータセット上でテストされる。
実験により,異なる攻撃条件下での分類精度の観点から,文献で広く用いられている最先端ネットワークに対する最適化ニューラルネットワークの優位性を実証した。
関連論文リスト
- Concealed Adversarial attacks on neural networks for sequential data [2.1879059908547482]
我々は、異なる時系列モデルに対する隠れた敵攻撃を開発する。
より現実的な摂動を提供し、人間またはモデル判別器によって検出するのが困難である。
この結果から,堅牢な時系列モデルを設計する上での課題が浮き彫りになった。
論文 参考訳(メタデータ) (2025-02-28T11:03:32Z) - Sparse and Transferable Universal Singular Vectors Attack [5.498495800909073]
そこで本研究では, よりスムーズなホワイトボックス対逆攻撃を提案する。
我々のアプローチは、ジャコビアン行列の隠れた層の$(p,q)$-singularベクトルにスパーシティを提供するトラルキャットパワーに基づいている。
本研究は,攻撃をスパースする最先端モデルの脆弱性を実証し,堅牢な機械学習システムの開発の重要性を強調した。
論文 参考訳(メタデータ) (2024-01-25T09:21:29Z) - Deviations in Representations Induced by Adversarial Attacks [0.0]
研究によると、ディープラーニングモデルは敵の攻撃に弱い。
この発見は研究の新たな方向性をもたらし、脆弱性のあるネットワークを攻撃して防御するためにアルゴリズムが開発された。
本稿では,敵攻撃によって引き起こされる表現の偏差を計測し,解析する手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T17:40:08Z) - A Multi-objective Memetic Algorithm for Auto Adversarial Attack
Optimization Design [1.9100854225243937]
良く設計された敵防衛戦略は、敵の例に対するディープラーニングモデルの堅牢性を改善することができる。
防御モデルを考えると、計算負担が少なく、ロバストな精度の低い効率的な敵攻撃を更に活用する必要がある。
本稿では,防衛モデルに対する準最適攻撃の自動探索を実現する自動対向攻撃最適化設計のための多目的メメティックアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-15T03:03:05Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Robust Binary Models by Pruning Randomly-initialized Networks [57.03100916030444]
ランダムな二元ネットワークから敵攻撃に対して頑健なモデルを得る方法を提案する。
ランダムな二元ネットワークを切断することにより、ロバストモデルの構造を学習する。
本手法は, 敵攻撃の有無で, 強力な抽選券仮説を立証する。
論文 参考訳(メタデータ) (2022-02-03T00:05:08Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Automated Decision-based Adversarial Attacks [48.01183253407982]
我々は、実用的で挑戦的な意思決定ベースのブラックボックスの敵意設定を考える。
この設定では、攻撃者はターゲットモデルに問い合わせるだけで最終分類ラベルを取得できる。
意思決定に基づく攻撃アルゴリズムを自動的に発見する。
論文 参考訳(メタデータ) (2021-05-09T13:15:10Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Architectural Resilience to Foreground-and-Background Adversarial Noise [0.0]
正常な画像の知覚不能な摂動の形でのアドリサイドアタックが広く研究されている。
本稿では,異なるネットワークアーキテクチャのレジリエンスとロバスト性を検討するために,画像の異なるモデルに依存しないベンチマーク摂動を提案する。
論文 参考訳(メタデータ) (2020-03-23T01:38:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。