論文の概要: The Pros and Cons of Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2312.10911v1
- Date: Mon, 18 Dec 2023 03:37:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 21:27:20.786851
- Title: The Pros and Cons of Adversarial Robustness
- Title(参考訳): 敵対的強固さの長所と短所
- Authors: Yacine Izza and Joao Marques-Silva
- Abstract要約: ロバストネスは機械学習(ML)モデルの解析における根本的な問題として広く見なされている。
本稿は,グローバルとローカルの両方において,ロバスト性の定義に関するいくつかの制約を明らかにする。
- 参考スコア(独自算出の注目度): 8.399401543300485
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robustness is widely regarded as a fundamental problem in the analysis of
machine learning (ML) models. Most often robustness equates with deciding the
non-existence of adversarial examples, where adversarial examples denote
situations where small changes on some inputs cause a change in the prediction.
The perceived importance of ML model robustness explains the continued progress
observed for most of the last decade. Whereas robustness is often assessed
locally, i.e. given some target point in feature space, robustness can also be
defined globally, i.e. where any point in feature space can be considered. The
importance of ML model robustness is illustrated for example by the existence
of competitions evaluating the progress of robustness tools, namely in the case
of neural networks (NNs) but also by efforts towards robustness certification.
More recently, robustness tools have also been used for computing rigorous
explanations of ML models. In contrast with the observed successes of
robustness, this paper uncovers some limitations with existing definitions of
robustness, both global and local, but also with efforts towards robustness
certification. The paper also investigates uses of adversarial examples besides
those related with robustness.
- Abstract(参考訳): ロバストネスは機械学習(ML)モデルの解析における根本的な問題として広く見なされている。
多くの場合、ロバスト性は、いくつかの入力に対する小さな変化が予測の変化を引き起こす状況を示す敵の例の非存在性を決定することに匹敵する。
MLモデルの堅牢性の重要性は、過去10年の大半で観察された継続的な進歩を説明する。
ロバスト性はしばしば局所的に評価されるが、例えば特徴空間の目標点が与えられた場合、ロバスト性はグローバルに定義することもできる。
MLモデルの堅牢性の重要性は、例えば、堅牢性ツールの進歩を評価する競争の存在、ニューラルネットワーク(NN)の場合、あるいは堅牢性認証への取り組みによって説明される。
最近では、MLモデルの厳密な説明の計算にもロバストネスツールが使用されている。
この論文は、ロバスト性が観察された成功とは対照的に、グローバルとローカルの両方において、既存のロバスト性の定義にはいくつかの制限があるが、ロバスト性認定への取り組みについても明らかにしている。
本稿は,ロバスト性に関連するものに加えて,逆行例の利用についても検討する。
関連論文リスト
- Rethinking Robustness of Model Attributions [24.317595434521504]
多くの属性手法は脆弱であり,これらの手法やモデルトレーニングの改良が提案されている。
まず、ロバスト性に関する既存の指標は、アトリビューションにおける合理的な局所的なシフトを過度に負担する。
本稿では,ロバストネス指標における画素の局所性と属性における画素位置の多様性を組み込んだ既存メトリクスと属性手法の簡易な強化手法を提案する。
論文 参考訳(メタデータ) (2023-12-16T20:20:38Z) - RobustMQ: Benchmarking Robustness of Quantized Models [54.15661421492865]
量子化は、限られたリソースを持つデバイスにディープニューラルネットワーク(DNN)をデプロイする上で不可欠なテクニックである。
我々は、ImageNet上の様々なノイズ(障害攻撃、自然破壊、系統的なノイズ)に対する量子化モデルのロバスト性について、徹底的に評価した。
我々の研究は、モデルとその実世界のシナリオにおける展開の堅牢な定量化を推し進めることに貢献している。
論文 参考訳(メタデータ) (2023-08-04T14:37:12Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Reliability in Semantic Segmentation: Are We on the Right Track? [15.0189654919665]
我々は、古いResNetベースのアーキテクチャから新しいトランスフォーマーまで、さまざまなモデルを分析します。
近年のモデルでは, 信頼性は著しく高いが, 不確実性評価の点では, 全体として信頼性は高くない。
これは、ロバストネスと不確実性推定の両方に焦点を当てた現代のセグメンテーションモデルに関する最初の研究である。
論文 参考訳(メタデータ) (2023-03-20T17:38:24Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - Robustness in Deep Learning for Computer Vision: Mind the gap? [13.576376492050185]
我々は、コンピュータビジョンのためのディープラーニングにおいて、現在の定義と非敵対的堅牢性に向けての進歩を特定し、分析し、要約する。
この研究の分野は、敵対的機械学習に対して、不当にあまり注目されていないことがわかりました。
論文 参考訳(メタデータ) (2021-12-01T16:42:38Z) - Clustering Effect of (Linearized) Adversarial Robust Models [60.25668525218051]
本稿では, 敵の強靭性に対する新たな理解を提案し, ドメイン適応や頑健性向上といったタスクに適用する。
提案したクラスタリング戦略の合理性と優越性を実験的に評価した。
論文 参考訳(メタデータ) (2021-11-25T05:51:03Z) - A Survey on the Robustness of Feature Importance and Counterfactual
Explanations [12.599872913953238]
本稿では,2種類の局所的説明の堅牢性を分析した研究について紹介する。
この調査は、既存のロバストネスの定義を統一することを目的としており、異なるロバストネスアプローチを分類するための分類を導入し、興味深い結果について議論している。
論文 参考訳(メタデータ) (2021-10-30T22:48:04Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - RobustBench: a standardized adversarial robustness benchmark [84.50044645539305]
ロバストネスのベンチマークにおける主な課題は、その評価がしばしばエラーを起こし、ロバストネス過大評価につながることである。
我々は,白箱攻撃と黒箱攻撃のアンサンブルであるAutoAttackを用いて,敵対的ロバスト性を評価する。
分散シフト,キャリブレーション,アウト・オブ・ディストリビューション検出,フェアネス,プライバシリーク,スムースネス,転送性に対するロバスト性の影響を解析した。
論文 参考訳(メタデータ) (2020-10-19T17:06:18Z) - Unifying Model Explainability and Robustness via Machine-Checkable
Concepts [33.88198813484126]
本稿では,機械チェック可能な概念を用いた頑健性評価フレームワークを提案する。
本フレームワークは, 予測堅牢性を評価するために, 説明をベースとした多種多様な概念を定義し, テスト時の説明整合性チェックを実施している。
実世界のデータセットと人間のサーベイの実験は、我々のフレームワークが予測の堅牢性を大幅に向上できることを示している。
論文 参考訳(メタデータ) (2020-07-01T05:21:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。