論文の概要: Stochastic Local Winner-Takes-All Networks Enable Profound Adversarial
Robustness
- arxiv url: http://arxiv.org/abs/2112.02671v1
- Date: Sun, 5 Dec 2021 20:00:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 09:51:36.246421
- Title: Stochastic Local Winner-Takes-All Networks Enable Profound Adversarial
Robustness
- Title(参考訳): 確率的局所的勝者獲得-全ネットワークによる強固な敵対的強固性の実現
- Authors: Konstantinos P. Panousis, Sotirios Chatzis, Sergios Theodoridis
- Abstract要約: この研究は、競争に基づくアクティベーション、すなわちLocal Winner-Takes-All(LWTA)の有効性を探る。
従来のReversaベースの非線形性を、局所的に競合する線形単位からなるブロックに置き換える。
実験で示されたように、ネットワークは強力な敵攻撃に対して最先端の堅牢性をもたらす。
- 参考スコア(独自算出の注目度): 9.017401570529135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work explores the potency of stochastic competition-based activations,
namely Stochastic Local Winner-Takes-All (LWTA), against powerful
(gradient-based) white-box and black-box adversarial attacks; we especially
focus on Adversarial Training settings. In our work, we replace the
conventional ReLU-based nonlinearities with blocks comprising locally and
stochastically competing linear units. The output of each network layer now
yields a sparse output, depending on the outcome of winner sampling in each
block. We rely on the Variational Bayesian framework for training and
inference; we incorporate conventional PGD-based adversarial training arguments
to increase the overall adversarial robustness. As we experimentally show, the
arising networks yield state-of-the-art robustness against powerful adversarial
attacks while retaining very high classification rate in the benign case.
- Abstract(参考訳): 本研究は、確率的競争に基づくアクティベーション、すなわちStochastic Local Winner-Takes-All(LWTA)の強力な(段階的な)ホワイトボックスとブラックボックスの敵攻撃に対する有効性を検討する。
本研究では,従来のReLUに基づく非線形性を局所的および確率的に競合する線形単位からなるブロックに置き換える。
各ネットワーク層の出力は、各ブロックにおける勝者サンプリングの結果に応じてスパース出力が得られる。
我々は,従来のPGDに基づく対人訓練の議論を取り入れ,対人ロバスト性を高めるために,変分ベイズ的枠組みを訓練と推論に用いている。
実験により得られたネットワークは,良性症例において非常に高い分類率を維持しつつ,強力な敵攻撃に対して最先端の堅牢性をもたらすことが示された。
関連論文リスト
- General Adversarial Defense Against Black-box Attacks via Pixel Level
and Feature Level Distribution Alignments [75.58342268895564]
我々は,DGN(Deep Generative Networks)と新たなトレーニング機構を併用して,分散ギャップを解消する。
トレーニングされたDGNは、画素値の変換により、敵サンプルとターゲットDNNのクリーンな分布を整列する。
我々の戦略はブラックボックス攻撃に対するその独特な効果と汎用性を実証している。
論文 参考訳(メタデータ) (2022-12-11T01:51:31Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Competing Mutual Information Constraints with Stochastic
Competition-based Activations for Learning Diversified Representations [5.981521556433909]
本研究は,多角化表現の学習における長年の課題に対処することを目的としている。
情報理論の議論と競争に基づくアクティベーションを組み合わせる。
実験的に示すように、結果として得られるネットワークは、重要な離散表現学習能力をもたらす。
論文 参考訳(メタデータ) (2022-01-10T20:12:13Z) - Defensive Tensorization [113.96183766922393]
本稿では,ネットワークの遅延高次分解を利用した対角防御手法であるテンソル防御手法を提案する。
我々は,標準画像分類ベンチマークにおけるアプローチの有効性を実証的に実証した。
我々は,音声タスクとバイナリネットワークを考慮し,ドメイン間のアプローチと低精度アーキテクチャの汎用性を検証した。
論文 参考訳(メタデータ) (2021-10-26T17:00:16Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Local Competition and Stochasticity for Adversarial Robustness in Deep
Learning [8.023314613846418]
本研究は, 深層学習における対角的堅牢性に対処し, 深層ネットワークと局部的勝者のアクティベーションを考慮した。
このタイプのネットワークユニットは、各モデル層からスパース表現を生じさせ、ユニットは1つのユニットだけがゼロでない出力を生成するブロックに編成される。
論文 参考訳(メタデータ) (2021-01-04T17:40:52Z) - Robust Reinforcement Learning using Adversarial Populations [118.73193330231163]
強化学習(Reinforcement Learning, RL)は、コントローラ設計に有効なツールであるが、堅牢性の問題に対処できる。
一つの逆数を使うことは、逆数の標準的なパラメトリゼーションの下での動的変動に一貫して堅牢性をもたらすわけではないことを示す。
本稿では,ロバスト RL の定式化に対する人口ベース増進法を提案する。
論文 参考訳(メタデータ) (2020-08-04T20:57:32Z) - Local Competition and Uncertainty for Adversarial Robustness in Deep
Learning [6.4649419408439766]
この研究は、新しい学習理論を用いて、ディープ・ネットワークの敵対的堅牢性に対処しようとするものである。
神経科学の結果に触発されて,逆行学習の手段として,局所的な競争原理を提案する。
提案モデルでは,最先端のホワイトボックス攻撃を実現すると同時に,その良質な精度を高い精度で維持する。
論文 参考訳(メタデータ) (2020-06-18T15:41:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。