論文の概要: Improving Hierarchical Adversarial Robustness of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2102.09012v1
- Date: Wed, 17 Feb 2021 20:14:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 19:55:02.812036
- Title: Improving Hierarchical Adversarial Robustness of Deep Neural Networks
- Title(参考訳): 深部ニューラルネットワークの階層的対角ロバスト性向上
- Authors: Avery Ma, Aladin Virmaux, Kevin Scaman, Juwei Lu
- Abstract要約: 歩行者を車として分類する自律運転システムは、例えば、バスとして車よりもはるかに危険な - そして潜在的に致命的な - 行動を引き起こす可能性があります。
クラスを粗いレベルラベルにグループ化できるデータセットが与えられると、階層的な逆行例を粗いレベルでの誤分類につながるものとして定義する。
ニューラルネットワークの階層的攻撃に対する抵抗性を改善するために,階層的逆相関性(HAR)ネットワーク設計を導入する。
- 参考スコア(独自算出の注目度): 18.917970316565203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Do all adversarial examples have the same consequences? An autonomous driving
system misclassifying a pedestrian as a car may induce a far more dangerous --
and even potentially lethal -- behavior than, for instance, a car as a bus. In
order to better tackle this important problematic, we introduce the concept of
hierarchical adversarial robustness. Given a dataset whose classes can be
grouped into coarse-level labels, we define hierarchical adversarial examples
as the ones leading to a misclassification at the coarse level. To improve the
resistance of neural networks to hierarchical attacks, we introduce a
hierarchical adversarially robust (HAR) network design that decomposes a single
classification task into one coarse and multiple fine classification tasks,
before being specifically trained by adversarial defense techniques. As an
alternative to an end-to-end learning approach, we show that HAR significantly
improves the robustness of the network against $\ell_2$ and $\ell_{\infty}$
bounded hierarchical attacks on the CIFAR-10 and CIFAR-100 dataset.
- Abstract(参考訳): すべての逆例は同じ結果をもたらしますか?
歩行者を車として分類する自動運転システムは、例えばバスよりもはるかに危険で致命的な行動を引き起こす可能性がある。
この重要な問題に対処するために、階層的対角的堅牢性の概念を導入する。
クラスを粗いレベルラベルにグループ化できるデータセットが与えられると、階層的な逆行例を粗いレベルでの誤分類につながるものとして定義する。
階層的攻撃に対するニューラルネットワークの抵抗性を向上させるために,1つの分類タスクを1つの粗く複数の細かい分類タスクに分解する階層的可逆的ロバスト(har)ネットワーク設計を導入する。
エンドツーエンドの学習アプローチの代替として、HAR が CIFAR-10 および CIFAR-100 データセットに対する $\ell_2$ および $\ell_{\infty}$ 境界付き階層攻撃に対するネットワークの堅牢性を大幅に改善することを示します。
関連論文リスト
- Reinforced Compressive Neural Architecture Search for Versatile Adversarial Robustness [32.914986455418]
本稿では, 対数対数対数ロバスト性に対する強化圧縮型ニューラルネットワーク探索(RC-NAS)を提案する。
具体的には、データセット、敵攻撃、教師ネットワーク情報を構成するタスク設定を定義する。
実験により、我々のフレームワークは、異なる初期教師ネットワーク、データセット、および敵攻撃に対して適応的な圧縮を実現することができることが示された。
論文 参考訳(メタデータ) (2024-06-10T20:59:52Z) - Hierarchical Classification for Intrusion Detection System: Effective Design and Empirical Analysis [3.560574387648533]
誤報を最小化しながら、異なる種類の攻撃を正確に検出できる侵入検知システム(IDS)を配備することが重要である。
機械学習のアプローチはIDSで広く使われており、通常トラフィックと異なるタイプの攻撃を区別するために、主にフラットなマルチクラス分類を使用している。
ネットワーク攻撃の分類には3レベルの階層的分類モデルを用いており、第1のレベルは良性または攻撃を分類し、第2のレベルは粗度の高い攻撃タイプを分類し、第3のレベルは粒度の高い攻撃タイプを分類する。
論文 参考訳(メタデータ) (2024-03-17T17:16:55Z) - Detection and Mitigation of Byzantine Attacks in Distributed Training [24.951227624475443]
ワーカノードの異常なビザンチン挙動は、トレーニングを脱線させ、推論の品質を損なう可能性がある。
最近の研究は、幅広い攻撃モデルを検討し、歪んだ勾配を補正するために頑健な集約と/または計算冗長性を探究している。
本研究では、強力な攻撃モデルについて検討する:$q$ omniscient adversaries with full knowledge of the defense protocol that can change from iteration to iteration to weak one: $q$ randomly selected adversaries with limited collusion abilities。
論文 参考訳(メタデータ) (2022-08-17T05:49:52Z) - Use All The Labels: A Hierarchical Multi-Label Contrastive Learning
Framework [75.79736930414715]
本稿では,すべての利用可能なラベルを活用でき,クラス間の階層的関係を維持できる階層型多言語表現学習フレームワークを提案する。
比較損失に階層的ペナルティを併用し,その階層的制約を強制する。
論文 参考訳(メタデータ) (2022-04-27T21:41:44Z) - Defensive Tensorization [113.96183766922393]
本稿では,ネットワークの遅延高次分解を利用した対角防御手法であるテンソル防御手法を提案する。
我々は,標準画像分類ベンチマークにおけるアプローチの有効性を実証的に実証した。
我々は,音声タスクとバイナリネットワークを考慮し,ドメイン間のアプローチと低精度アーキテクチャの汎用性を検証した。
論文 参考訳(メタデータ) (2021-10-26T17:00:16Z) - A Hierarchical Assessment of Adversarial Severity [3.0478504236139528]
大規模データセットであるiNaturalist-Hへのロバストネスと重大度の測定による対向雑音の影響について検討した。
従来の逆行訓練をシンプルながら効果的な階層型カリキュラムトレーニングで強化し,これらのノードを階層型ツリー内で徐々に学習する。
我々は、階層的な防御により、深いモデルによって敵のロバスト性が1.85%向上し、全ての攻撃の重症度が平均0.17減少することを示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-08-26T13:29:17Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial Attack and Defense in Deep Ranking [100.17641539999055]
本稿では,敵対的摂動によって選抜された候補者のランクを引き上げたり下げたりできる,ディープランキングシステムに対する2つの攻撃を提案する。
逆に、全ての攻撃に対するランキングモデルロバスト性を改善するために、反崩壊三重項防御法が提案されている。
MNIST, Fashion-MNIST, CUB200-2011, CARS196およびStanford Online Productsデータセットを用いて, 敵のランク付け攻撃と防御を評価した。
論文 参考訳(メタデータ) (2021-06-07T13:41:45Z) - Robustness May Be at Odds with Fairness: An Empirical Study on
Class-wise Accuracy [85.20742045853738]
CNNは敵の攻撃に弱いことが広く知られている。
本稿では,対人訓練モデルのクラスワイド精度とロバスト性に関する実証的研究を提案する。
トレーニングデータセットが各クラスに同じ数のサンプルを持つ場合でも,精度と堅牢性にはクラス間差があることが判明した。
論文 参考訳(メタデータ) (2020-10-26T06:32:32Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - AI-GAN: Attack-Inspired Generation of Adversarial Examples [14.709927651682783]
ディープニューラルネットワーク(DNN)は、入力に知覚不可能な摂動を加えることで構築された敵の例に対して脆弱である。
近年、様々な攻撃や戦略が提案されているが、現実的かつ効率的に敵の例を生成する方法は未解決のままである。
本稿では、ジェネレータ、識別器、攻撃者が共同で訓練されるAI-GAN(Attack-Inspired GAN)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-06T10:57:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。