論文の概要: Using Synthetic Corruptions to Measure Robustness to Natural
Distribution Shifts
- arxiv url: http://arxiv.org/abs/2107.12052v1
- Date: Mon, 26 Jul 2021 09:20:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 16:02:07.725101
- Title: Using Synthetic Corruptions to Measure Robustness to Natural
Distribution Shifts
- Title(参考訳): 自然分布シフトに対するロバストネスの測定に合成崩壊を用いる
- Authors: Alfred Laugros and Alice Caplier and Matthieu Ospici
- Abstract要約: 本研究では, 実世界の分布変化に対するロバストネスとより相関したロバストネス推定を行う合成汚濁ベンチマークを構築する手法を提案する。
提案手法を適用し,画像分類器の堅牢性を予測するために,ImageNet-Syn2Natと呼ばれる新しいベンチマークを構築した。
- 参考スコア(独自算出の注目度): 6.445605125467574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic corruptions gathered into a benchmark are frequently used to
measure neural network robustness to distribution shifts. However, robustness
to synthetic corruption benchmarks is not always predictive of robustness to
distribution shifts encountered in real-world applications. In this paper, we
propose a methodology to build synthetic corruption benchmarks that make
robustness estimations more correlated with robustness to real-world
distribution shifts. Using the overlapping criterion, we split synthetic
corruptions into categories that help to better understand neural network
robustness. Based on these categories, we identify three parameters that are
relevant to take into account when constructing a corruption benchmark: number
of represented categories, balance among categories and size of benchmarks.
Applying the proposed methodology, we build a new benchmark called
ImageNet-Syn2Nat to predict image classifier robustness.
- Abstract(参考訳): ベンチマークに収集された合成腐敗は、分散シフトに対するニューラルネットワークの堅牢性を測定するために頻繁に使用される。
しかしながら、合成腐敗ベンチマークに対するロバスト性は、現実世界のアプリケーションで発生する分散シフトに対するロバスト性を常に予測しているとは限らない。
本稿では,実世界の分布変化に対するロバスト性とロバスト性推定をより関連付ける合成汚損ベンチマークを構築する手法を提案する。
重なり合う基準を用いて、ニューラルネットワークのロバスト性をよりよく理解するのに役立つカテゴリに合成腐敗を分割した。
これらのカテゴリに基づいて,腐敗ベンチマークを構築する際に考慮すべきパラメータを3つ同定した。
提案手法を適用し,画像分類器の堅牢性を予測するために,ImageNet-Syn2Natと呼ばれる新しいベンチマークを構築した。
関連論文リスト
- Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Investigating the Corruption Robustness of Image Classifiers with Random
Lp-norm Corruptions [3.1337872355726084]
本研究では,画像分類器のトレーニングデータとテストデータを強化するために,ランダムなp-ノルム汚職を用いることを検討した。
p-ノルムの汚職の組み合わせによるトレーニングデータの増大は、最先端のデータ増補スキームにおいても、汚職の堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-09T12:45:43Z) - GREAT Score: Global Robustness Evaluation of Adversarial Perturbation using Generative Models [60.48306899271866]
GREATスコア(GREAT Score)と呼ばれる新しいフレームワークを提案する。
我々は,ロバストベンチにおける攻撃ベースモデルと比較し,高い相関性を示し,GREATスコアのコストを大幅に削減した。
GREAT Scoreは、プライバシーに敏感なブラックボックスモデルのリモート監査に使用することができる。
論文 参考訳(メタデータ) (2023-04-19T14:58:27Z) - A Systematic Evaluation of Node Embedding Robustness [77.29026280120277]
本研究では,ノード埋め込みモデルのランダムおよび逆毒攻撃に対する経験的ロバスト性を評価する。
ネットワーク特性とノードラベルを用いて計算したエッジの追加,削除,再切り替えの戦略を比較した。
その結果,ノード分類はネットワーク再構成とは対照的に,高い性能劣化に悩まされていることがわかった。
論文 参考訳(メタデータ) (2022-09-16T17:20:23Z) - Utilizing Class Separation Distance for the Evaluation of Corruption
Robustness of Machine Learning Classifiers [0.6882042556551611]
本稿では,最小クラス分離距離のデータセットから得られるロバストネス距離$epsilon$を使用するテストデータ拡張手法を提案する。
結果として得られるMSCRメトリックは、その破損の堅牢性に関して異なる分類器のデータセット固有の比較を可能にする。
以上の結果から, 単純なデータ拡張によるロバストネストレーニングにより, 精度が若干向上することが示唆された。
論文 参考訳(メタデータ) (2022-06-27T15:56:16Z) - Noisy Learning for Neural ODEs Acts as a Robustness Locus Widening [0.802904964931021]
差分方程式に基づくネットワーク(DE)の合成分布シフトに対するロバスト性評価の課題と課題について検討する。
そこで本研究では,本質的なロバスト性の評価や,データセットの破損シミュレーションの検証に使用可能な,新規で簡易な精度測定法を提案する。
論文 参考訳(メタデータ) (2022-06-16T15:10:38Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - Using the Overlapping Score to Improve Corruption Benchmarks [6.445605125467574]
本稿では、汚職ベンチマークの欠陥を明らかにするために、汚職重複スコアと呼ばれる指標を提案する。
汚職間の重複を考慮に入れれば、既存のベンチマークを改善したり、より良いベンチマークを構築するのに役立ちます。
論文 参考訳(メタデータ) (2021-05-26T06:42:54Z) - An Orthogonal Classifier for Improving the Adversarial Robustness of
Neural Networks [21.13588742648554]
近年の研究では、分類層に特定の変更を加えることで、ニューラルネットワークの堅牢性を向上させることが示されている。
我々は、成分が同じ大きさの高密度直交重み行列を明示的に構築し、新しいロバストな分類器を生み出す。
我々の方法は、多くの最先端の防衛アプローチに対して効率的で競争力がある。
論文 参考訳(メタデータ) (2021-05-19T13:12:14Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - A general framework for defining and optimizing robustness [74.67016173858497]
分類器の様々な種類の堅牢性を定義するための厳密でフレキシブルなフレームワークを提案する。
我々の概念は、分類器の堅牢性は正確性とは無関係な性質と考えるべきであるという仮定に基づいている。
我々は,任意の分類モデルに適用可能な,非常に一般的なロバスト性フレームワークを開発する。
論文 参考訳(メタデータ) (2020-06-19T13:24:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。