論文の概要: Efficient Estimation of the Local Robustness of Machine Learning Models
- arxiv url: http://arxiv.org/abs/2307.13885v1
- Date: Wed, 26 Jul 2023 01:10:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 14:08:10.130753
- Title: Efficient Estimation of the Local Robustness of Machine Learning Models
- Title(参考訳): 機械学習モデルの局所的ロバストネスの効率的な推定
- Authors: Tessa Han, Suraj Srinivas, Himabindu Lakkaraju
- Abstract要約: 我々は,マルチクラス判別モデルの局所ロバスト性を効率的に計算する最初の解析的推定器を開発した。
局所ロバスト性はランダムな平滑化やソフトマックス確率といった概念とどのように結びついているかを示す。
- 参考スコア(独自算出の注目度): 16.678003262147346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models often need to be robust to noisy input data. The
effect of real-world noise (which is often random) on model predictions is
captured by a model's local robustness, i.e., the consistency of model
predictions in a local region around an input. However, the na\"ive approach to
computing local robustness based on Monte-Carlo sampling is statistically
inefficient, leading to prohibitive computational costs for large-scale
applications. In this work, we develop the first analytical estimators to
efficiently compute local robustness of multi-class discriminative models using
local linear function approximation and the multivariate Normal CDF. Through
the derivation of these estimators, we show how local robustness is connected
to concepts such as randomized smoothing and softmax probability. We also
confirm empirically that these estimators accurately and efficiently compute
the local robustness of standard deep learning models. In addition, we
demonstrate these estimators' usefulness for various tasks involving local
robustness, such as measuring robustness bias and identifying examples that are
vulnerable to noise perturbation in a dataset. By developing these analytical
estimators, this work not only advances conceptual understanding of local
robustness, but also makes its computation practical, enabling the use of local
robustness in critical downstream applications.
- Abstract(参考訳): 機械学習モデルは、しばしばノイズの多い入力データに対して堅牢である必要がある。
モデル予測に対する実世界のノイズ(しばしばランダムである)の影響は、モデルの局所的ロバスト性、すなわち入力周辺の局所領域におけるモデル予測の一貫性によって捉えられる。
しかし、モンテカルロサンプリングに基づく局所ロバストネスの「計算」アプローチは統計的に非効率的であり、大規模アプリケーションでは計算コストが禁じられている。
本研究では,局所線形関数近似と多変量正規CDFを用いた多クラス判別モデルの局所ロバスト性を効率的に計算する最初の解析的推定器を開発する。
これらの推定器の導出を通じて,局所的ロバスト性がランダム化平滑化やソフトマックス確率といった概念とどのように結びついているかを示す。
また、これらの推定器が標準ディープラーニングモデルの局所的ロバスト性を正確かつ効率的に計算できることを実証的に確認する。
さらに、ロバスト性バイアスの測定やデータセットのノイズ摂動に弱い例の特定など、局所ロバスト性に関わる様々なタスクに対するこれらの推定器の有用性を示す。
これらの解析的推定器を開発することにより、局所ロバスト性の概念的理解を深めるだけでなく、その計算を実用的なものにし、臨界下流アプリケーションにおける局所ロバスト性の利用を可能にする。
関連論文リスト
- Benchmarking Zero-Shot Robustness of Multimodal Foundation Models: A Pilot Study [61.65123150513683]
CLIPのようなマルチモーダル基盤モデルは、最先端のゼロショット結果を生成する。
これらのモデルは、ImageNetでトレーニングされた教師付きモデルのパフォーマンスを一致させることで、ロバスト性ギャップを埋めることが報告されている。
CLIPは、ベンチマーク上の教師付きImageNetモデルと比較して、かなりの堅牢性低下をもたらすことを示す。
論文 参考訳(メタデータ) (2024-03-15T17:33:49Z) - Rethinking Robustness of Model Attributions [24.317595434521504]
多くの属性手法は脆弱であり,これらの手法やモデルトレーニングの改良が提案されている。
まず、ロバスト性に関する既存の指標は、アトリビューションにおける合理的な局所的なシフトを過度に負担する。
本稿では,ロバストネス指標における画素の局所性と属性における画素位置の多様性を組み込んだ既存メトリクスと属性手法の簡易な強化手法を提案する。
論文 参考訳(メタデータ) (2023-12-16T20:20:38Z) - GREAT Score: Global Robustness Evaluation of Adversarial Perturbation using Generative Models [60.48306899271866]
GREATスコア(GREAT Score)と呼ばれる新しいフレームワークを提案する。
我々は,ロバストベンチにおける攻撃ベースモデルと比較し,高い相関性を示し,GREATスコアのコストを大幅に削減した。
GREAT Scoreは、プライバシーに敏感なブラックボックスモデルのリモート監査に使用することができる。
論文 参考訳(メタデータ) (2023-04-19T14:58:27Z) - Robustness of Machine Learning Models Beyond Adversarial Attacks [0.0]
本稿では,MLモデルのロバスト性を決定する上で,敵対的ロバスト性や近縁なメトリクスが必ずしも有効な指標ではないことを示す。
アプリケーション毎に個別に入力データの摂動をモデル化するフレキシブルなアプローチを提案する。
これは、現実の摂動が予測を変える可能性を計算する確率論的アプローチと組み合わせられる。
論文 参考訳(メタデータ) (2022-04-21T12:09:49Z) - Estimating the Robustness of Classification Models by the Structure of
the Learned Feature-Space [10.418647759223964]
固定テストセットは、可能なデータバリエーションのごく一部しかキャプチャできないため、制限され、新しい過度なソリューションを生成する傾向にある、と私たちは主張する。
これらの欠点を克服するために、学習した特徴空間の構造から直接モデルのロバスト性を推定することを提案する。
論文 参考訳(メタデータ) (2021-06-23T10:52:29Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - RobustBench: a standardized adversarial robustness benchmark [84.50044645539305]
ロバストネスのベンチマークにおける主な課題は、その評価がしばしばエラーを起こし、ロバストネス過大評価につながることである。
我々は,白箱攻撃と黒箱攻撃のアンサンブルであるAutoAttackを用いて,敵対的ロバスト性を評価する。
分散シフト,キャリブレーション,アウト・オブ・ディストリビューション検出,フェアネス,プライバシリーク,スムースネス,転送性に対するロバスト性の影響を解析した。
論文 参考訳(メタデータ) (2020-10-19T17:06:18Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - How to compare adversarial robustness of classifiers from a global
perspective [0.0]
敵対的攻撃は、機械学習モデルの信頼性と信頼性を損なう。
特定の脅威モデルのポイントワイド測度は、現在、分類器の堅牢性を比較するための最も一般的なツールである。
本研究では,最近提案されたロバストネス曲線を用いて,ポイントワイド測度が重要なグローバルな特性を捉えることができないことを示す。
論文 参考訳(メタデータ) (2020-04-22T22:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。