論文の概要: Efficient Estimation of Average-Case Robustness for Multi-Class
Classification
- arxiv url: http://arxiv.org/abs/2307.13885v4
- Date: Wed, 25 Oct 2023 17:59:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 11:01:24.222935
- Title: Efficient Estimation of Average-Case Robustness for Multi-Class
Classification
- Title(参考訳): 多類分類における平均ケースロバストネスの効率的な推定
- Authors: Tessa Han, Suraj Srinivas, Himabindu Lakkaraju
- Abstract要約: 我々は,マルチクラス判別モデルの平均ケースロバスト性を効率的に計算する最初の解析的推定器を開発した。
これらの推定器は入力周辺の局所領域のモデルを線形化し、その結果の線形モデルのロバスト性を解析的に計算する。
- 参考スコア(独自算出の注目度): 33.583648927535414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robustness in machine learning is commonly studied in the adversarial
setting, yet real-world noise (such as measurement noise) is random rather than
adversarial. Model behavior under such noise is captured by average-case
robustness, i.e., the probability of obtaining consistent predictions in a
local region around an input. However, the na\"ive approach to computing
average-case robustness based on Monte-Carlo sampling is statistically
inefficient, especially for high-dimensional data, leading to prohibitive
computational costs for large-scale applications. In this work, we develop the
first analytical estimators to efficiently compute average-case robustness of
multi-class discriminative models. These estimators linearize models in the
local region around an input and analytically compute the robustness of the
resulting linear models. We show empirically that these estimators efficiently
compute the robustness of standard deep learning models and demonstrate these
estimators' usefulness for various tasks involving robustness, such as
measuring robustness bias and identifying dataset samples that are vulnerable
to noise perturbation. In doing so, this work not only proposes a new framework
for robustness, but also makes its computation practical, enabling the use of
average-case robustness in downstream applications.
- Abstract(参考訳): 機械学習におけるロバスト性は、逆条件でよく研究されるが、実世界のノイズ(測定ノイズなど)は逆条件ではなくランダムである。
このような雑音下でのモデル行動は、平均ケースロバスト性、すなわち入力周辺の局所領域で一貫した予測を得る確率によって捉えられる。
しかしながら、モンテカルロサンプリングに基づく平均ケースロバストネスを計算するna\"iveなアプローチは、特に高次元データでは統計的に非効率であり、大規模アプリケーションでは計算コストがかかる。
本研究では,マルチクラス判別モデルの平均ケースロバストネスを効率的に計算する最初の解析推定器を開発した。
これらの推定器は入力周辺の局所領域のモデルを線形化し、結果の線形モデルのロバスト性を解析的に計算する。
これらの推定器が標準ディープラーニングモデルのロバストネスを効率的に計算し、ロバスト性バイアスの測定やノイズの摂動に弱いデータセットの同定など、ロバストネスに関わる様々なタスクにおいてこれらの推定器の有用性を示す。
そこで本研究では,ロバストネスのための新しいフレームワークを提案するだけでなく,下流アプリケーションにおける平均ケースロバストネスの利用を可能にし,その計算を実用的なものにする。
関連論文リスト
- Benchmarking Zero-Shot Robustness of Multimodal Foundation Models: A Pilot Study [61.65123150513683]
CLIPのようなマルチモーダル基盤モデルは、最先端のゼロショット結果を生成する。
これらのモデルは、ImageNetでトレーニングされた教師付きモデルのパフォーマンスを一致させることで、ロバスト性ギャップを埋めることが報告されている。
CLIPは、ベンチマーク上の教師付きImageNetモデルと比較して、かなりの堅牢性低下をもたらすことを示す。
論文 参考訳(メタデータ) (2024-03-15T17:33:49Z) - Rethinking Robustness of Model Attributions [24.317595434521504]
多くの属性手法は脆弱であり,これらの手法やモデルトレーニングの改良が提案されている。
まず、ロバスト性に関する既存の指標は、アトリビューションにおける合理的な局所的なシフトを過度に負担する。
本稿では,ロバストネス指標における画素の局所性と属性における画素位置の多様性を組み込んだ既存メトリクスと属性手法の簡易な強化手法を提案する。
論文 参考訳(メタデータ) (2023-12-16T20:20:38Z) - GREAT Score: Global Robustness Evaluation of Adversarial Perturbation using Generative Models [60.48306899271866]
GREATスコア(GREAT Score)と呼ばれる新しいフレームワークを提案する。
我々は,ロバストベンチにおける攻撃ベースモデルと比較し,高い相関性を示し,GREATスコアのコストを大幅に削減した。
GREAT Scoreは、プライバシーに敏感なブラックボックスモデルのリモート監査に使用することができる。
論文 参考訳(メタデータ) (2023-04-19T14:58:27Z) - Robustness of Machine Learning Models Beyond Adversarial Attacks [0.0]
本稿では,MLモデルのロバスト性を決定する上で,敵対的ロバスト性や近縁なメトリクスが必ずしも有効な指標ではないことを示す。
アプリケーション毎に個別に入力データの摂動をモデル化するフレキシブルなアプローチを提案する。
これは、現実の摂動が予測を変える可能性を計算する確率論的アプローチと組み合わせられる。
論文 参考訳(メタデータ) (2022-04-21T12:09:49Z) - Estimating the Robustness of Classification Models by the Structure of
the Learned Feature-Space [10.418647759223964]
固定テストセットは、可能なデータバリエーションのごく一部しかキャプチャできないため、制限され、新しい過度なソリューションを生成する傾向にある、と私たちは主張する。
これらの欠点を克服するために、学習した特徴空間の構造から直接モデルのロバスト性を推定することを提案する。
論文 参考訳(メタデータ) (2021-06-23T10:52:29Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - RobustBench: a standardized adversarial robustness benchmark [84.50044645539305]
ロバストネスのベンチマークにおける主な課題は、その評価がしばしばエラーを起こし、ロバストネス過大評価につながることである。
我々は,白箱攻撃と黒箱攻撃のアンサンブルであるAutoAttackを用いて,敵対的ロバスト性を評価する。
分散シフト,キャリブレーション,アウト・オブ・ディストリビューション検出,フェアネス,プライバシリーク,スムースネス,転送性に対するロバスト性の影響を解析した。
論文 参考訳(メタデータ) (2020-10-19T17:06:18Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - How to compare adversarial robustness of classifiers from a global
perspective [0.0]
敵対的攻撃は、機械学習モデルの信頼性と信頼性を損なう。
特定の脅威モデルのポイントワイド測度は、現在、分類器の堅牢性を比較するための最も一般的なツールである。
本研究では,最近提案されたロバストネス曲線を用いて,ポイントワイド測度が重要なグローバルな特性を捉えることができないことを示す。
論文 参考訳(メタデータ) (2020-04-22T22:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。