論文の概要: Defense Through Diverse Directions
- arxiv url: http://arxiv.org/abs/2003.10602v1
- Date: Tue, 24 Mar 2020 01:22:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 08:13:00.872621
- Title: Defense Through Diverse Directions
- Title(参考訳): 多様な方向からの防衛
- Authors: Christopher M. Bender, Yang Li, Yifeng Shi, Michael K. Reiter, Junier
B. Oliva
- Abstract要約: 我々は,強い対向性を実現するための新しいベイズニューラルネットワーク手法を開発した。
ネットワークが入力を均等に分散するように促すことによって、ネットワークは局所的かつ脆い機能の影響を受けにくくなっていることを実証する。
いくつかのベンチマークデータセットに経験的ロバスト性を示す。
- 参考スコア(独自算出の注目度): 24.129270094757587
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we develop a novel Bayesian neural network methodology to
achieve strong adversarial robustness without the need for online adversarial
training. Unlike previous efforts in this direction, we do not rely solely on
the stochasticity of network weights by minimizing the divergence between the
learned parameter distribution and a prior. Instead, we additionally require
that the model maintain some expected uncertainty with respect to all input
covariates. We demonstrate that by encouraging the network to distribute evenly
across inputs, the network becomes less susceptible to localized, brittle
features which imparts a natural robustness to targeted perturbations. We show
empirical robustness on several benchmark datasets.
- Abstract(参考訳): 本研究では,オンライン対人訓練を必要とせず,強力な対人ロバスト性を実現するための新しいベイズニューラルネットワーク手法を開発する。
この方向の従来の取り組みとは異なり、学習パラメータ分布と先行パラメータ分布のばらつきを最小限に抑えることで、ネットワーク重みの確率性のみに頼らない。
さらに、全ての入力共変量に関して、モデルが期待される不確実性を維持することを要求する。
ネットワークが入力を均等に分配することを奨励することで、ターゲットの摂動に自然な堅牢性を与える局所的かつ脆い特徴の影響を受けにくくなることを示す。
いくつかのベンチマークデータセットで経験的ロバスト性を示す。
関連論文リスト
- Beyond Pruning Criteria: The Dominant Role of Fine-Tuning and Adaptive Ratios in Neural Network Robustness [7.742297876120561]
ディープニューラルネットワーク(DNN)は、画像認識や自然言語処理といったタスクに優れています。
従来のプルーニング手法は、微妙な摂動に耐えるネットワークの能力を損なう。
本稿では,プライドネットワークの性能決定要因として,従来の重み付け重み付けの重視に挑戦する。
論文 参考訳(メタデータ) (2024-10-19T18:35:52Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Revisiting the Trade-off between Accuracy and Robustness via Weight Distribution of Filters [17.316537476091867]
敵対的攻撃はディープニューラルネットワーク(DNN)の潜在的な脅威であることが証明されている。
本稿では,Adversarial Weight-Varied Network (AW-Net) という,サンプルワイドな動的ネットワークアーキテクチャを提案する。
AW-Netは、敵ルータが生成する制御信号に基づいて、ネットワークの重みを適応的に調整する。
論文 参考訳(メタデータ) (2023-06-06T06:09:11Z) - Addressing Mistake Severity in Neural Networks with Semantic Knowledge [0.0]
ほとんどの堅牢なトレーニング技術は、摂動入力のモデル精度を改善することを目的としている。
強靭性の代替形態として、ニューラルネットワークが挑戦的な状況で犯した誤りの深刻度を低減することを目的としている。
我々は、現在の対人訓練手法を活用して、トレーニングプロセス中に標的の対人攻撃を発生させる。
その結果,本手法は,標準モデルや逆トレーニングモデルと比較して,誤り重大性に対して優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-21T22:01:36Z) - Variational Neural Networks [88.24021148516319]
本稿では,変分ニューラルネットワーク(VNN)と呼ばれるニューラルネットワークにおける不確実性推定手法を提案する。
VNNは、学習可能なサブレイヤで入力を変換することで、レイヤの出力分布のパラメータを生成する。
不確実性評価実験において、VNNはモンテカルロ・ドロップアウトやベイズ・バイ・バックプロパゲーション法よりも優れた不確実性が得られることを示す。
論文 参考訳(メタデータ) (2022-07-04T15:41:02Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - High-Robustness, Low-Transferability Fingerprinting of Neural Networks [78.2527498858308]
本稿では,ディープニューラルネットワークを効果的にフィンガープリントするための特性例を提案する。
モデルプルーニングに対するベースモデルへの高いロバスト性、無関係モデルへの低透過性などが特徴である。
論文 参考訳(メタデータ) (2021-05-14T21:48:23Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Achieving Adversarial Robustness via Sparsity [33.11581532788394]
ネットワーク重みの空間性はモデルロバスト性と密接に関連していることを示す。
本稿では,逆重み継承という新たな逆トレーニング手法を提案する。
論文 参考訳(メタデータ) (2020-09-11T13:15:43Z) - Depth Uncertainty in Neural Networks [2.6763498831034043]
ディープラーニングにおける不確実性を推定する既存の方法は、複数の前方パスを必要とする傾向がある。
フィードフォワードネットワークのシーケンシャルな構造を利用することで、トレーニング目標を評価し、単一のフォワードパスで予測を行うことができる。
実世界の回帰と画像分類タスクに対する我々のアプローチを検証する。
論文 参考訳(メタデータ) (2020-06-15T14:33:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。