論文の概要: Not all broken defenses are equal: The dead angles of adversarial
accuracy
- arxiv url: http://arxiv.org/abs/2207.04129v1
- Date: Fri, 8 Jul 2022 21:25:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 13:57:58.373968
- Title: Not all broken defenses are equal: The dead angles of adversarial
accuracy
- Title(参考訳): すべての防御が等しいわけではない:敵の正確さのデッドアングル
- Authors: Raphael Olivier, Bhiksha Raj
- Abstract要約: そこで我々は,L2の強靭性,逆角性,すなわち「入力の周囲に何個の逆例が存在するか」という疑問に部分的に答える新しい尺度を提案する。
いくつかの最先端の防御は、非常によく似た精度を提供しており、それらが堅牢でない入力に対して非常に異なる間隔を持つことを示します。
これらの違いは、敵の訓練と組み合わせることで、そのような防御がいかに有用になるかを予測するものである。
- 参考スコア(独自算出の注目度): 28.934863462633636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robustness to adversarial attack is typically evaluated with adversarial
accuracy. This metric is however too coarse to properly capture all robustness
properties of machine learning models. Many defenses, when evaluated against a
strong attack, do not provide accuracy improvements while still contributing
partially to adversarial robustness. Popular certification methods suffer from
the same issue, as they provide a lower bound to accuracy. To capture finer
robustness properties we propose a new metric for L2 robustness, adversarial
angular sparsity, which partially answers the question "how many adversarial
examples are there around an input". We demonstrate its usefulness by
evaluating both "strong" and "weak" defenses. We show that some
state-of-the-art defenses, delivering very similar accuracy, can have very
different sparsity on the inputs that they are not robust on. We also show that
some weak defenses actually decrease robustness, while others strengthen it in
a measure that accuracy cannot capture. These differences are predictive of how
useful such defenses can become when combined with adversarial training.
- Abstract(参考訳): 対向攻撃に対するロバスト性は、通常、対向精度で評価される。
しかし、この計量は、機械学習モデルの全ての堅牢性特性を適切に捉えるには大きすぎる。
強力な攻撃に対して評価される多くの防御は、敵の堅牢性に部分的に寄与しながらも、精度の向上を提供しない。
一般的な認証方法は、精度が低いため、同じ問題に悩まされる。
より微細な強靭性特性を捉えるために,L2 の強靭性,対角性,すなわち「入力の周囲に何個の対角性例が存在するか」という疑問に部分的に答える新しい尺度を提案する。
強防御と弱防御の両方を評価することにより,その有用性を示す。
いくつかの最先端の防御は、非常によく似た精度を提供しており、それらが堅牢でない入力に対して非常に異なる間隔を持つことを示します。
また, 弱い防御力によっては頑健性が低下するが, 精度では捕獲できないという尺度で強化するものもある。
これらの違いは、敵の訓練と組み合わせることで、そのような防御がいかに有用になるかを予測する。
関連論文リスト
- Exploring the Adversarial Frontier: Quantifying Robustness via Adversarial Hypervolume [17.198794644483026]
本稿では,様々な摂動強度に対して総合的に深層学習モデルの頑健性を評価するための,対向超体積と呼ばれる新しい計量法を提案する。
我々は,様々な摂動強度の対向的堅牢性を均一に向上する新しいトレーニングアルゴリズムを採用する。
本研究はロバスト性の新しい尺度に寄与し、敵の脅威に対するベンチマーク評価と、現在および将来の防御モデルのレジリエンスの基準を確立する。
論文 参考訳(メタデータ) (2024-03-08T07:03:18Z) - Extreme Miscalibration and the Illusion of Adversarial Robustness [66.29268991629085]
敵の訓練は、しばしばモデルの堅牢性を高めるために使用される。
我々は、この観測されたロバストネスの利得はロバストネスの錯覚(IOR)であることを示した。
我々は,NLPコミュニティに対して,試験時間温度のスケーリングを堅牢性評価に組み込むよう促す。
論文 参考訳(メタデータ) (2024-02-27T13:49:12Z) - Exploring Robust Features for Improving Adversarial Robustness [11.935612873688122]
本研究では, 対向的摂動の影響を受けない頑健な特徴を探索し, モデルの対向的強靭性を改善する。
具体的には、ロバストでない特徴やドメイン固有の特徴からロバストな特徴を分離する機能障害モデルを提案する。
トレーニング済みのドメイン識別器は、クリーンな画像や敵の例から、ほぼ完璧にドメイン固有の特徴を識別することができる。
論文 参考訳(メタデータ) (2023-09-09T00:30:04Z) - Revisiting DeepFool: generalization and improvement [17.714671419826715]
我々は,有効性と計算効率のバランスを崩す新たな敵攻撃群を導入する。
提案手法は,大規模モデルのロバスト性の評価にも適している。
論文 参考訳(メタデータ) (2023-03-22T11:49:35Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Masking Adversarial Damage: Finding Adversarial Saliency for Robust and
Sparse Network [33.18197518590706]
敵対的な例は、ディープニューラルネットワークの弱い信頼性と潜在的なセキュリティ問題を引き起こす。
本稿では, 対向的損失の2次情報を利用した新しい対向的プルーニング手法, Masking Adversarial damage (MAD)を提案する。
我々は,MADが敵の強靭性を損なうことなく敵の訓練網を効果的に突破し,従来の敵のプルーニング手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2022-04-06T11:28:06Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Adversarial Robustness under Long-Tailed Distribution [93.50792075460336]
敵対的ロバスト性はディープネットワークの脆弱性と本質的特徴を明らかにすることで近年広く研究されている。
本研究では,長尾分布下における敵対的脆弱性と防御について検討する。
我々は、スケール不変とデータ再分散という2つの専用モジュールからなるクリーンで効果的なフレームワークであるRoBalを提案する。
論文 参考訳(メタデータ) (2021-04-06T17:53:08Z) - Geometry-aware Instance-reweighted Adversarial Training [78.70024866515756]
敵対的機械学習では、堅牢性と正確性がお互いを傷つけるという共通の信念があった。
本稿では,自然データ点の攻撃がいかに難しいかに基づいて,幾何対応のインスタンス再重み付き対向訓練を提案する。
実験の結果,本提案は標準的な対人訓練の堅牢性を高めることが示唆された。
論文 参考訳(メタデータ) (2020-10-05T01:33:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。