論文の概要: Investigating the Corruption Robustness of Image Classifiers with Random
Lp-norm Corruptions
- arxiv url: http://arxiv.org/abs/2305.05400v2
- Date: Thu, 16 Nov 2023 16:37:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 18:44:50.052895
- Title: Investigating the Corruption Robustness of Image Classifiers with Random
Lp-norm Corruptions
- Title(参考訳): ランダムlpノルム劣化を伴う画像分類器の破壊ロバスト性の検討
- Authors: Georg Siedel, Weijia Shao, Silvia Vock, Andrey Morozov
- Abstract要約: 本研究では,画像分類器のトレーニングデータとテストデータを強化するために,ランダムなLp-ノルム汚損を利用した手法について検討する。
L0-ノルム汚職によるトレーニングデータの増大は、標準的なトレーニングに比べて精度を保ちながら、汚職の堅牢性を向上させることが判明した。
- 参考スコア(独自算出の注目度): 3.1337872355726084
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robustness is a fundamental property of machine learning classifiers to
achieve safety and reliability. In the fields of adversarial robustness and
formal robustness verification of image classification models, robustness is
commonly defined as the stability to all input variations within an Lp-norm
distance. However, robustness to random corruptions is usually improved and
evaluated using variations observed in the real-world, while mathematically
defined Lp-norm corruptions are rarely considered. This study investigates the
use of random Lp-norm corruptions to augment the training and test data of
image classifiers. We adapt an approach from the field of adversarial
robustness to assess the model robustness to imperceptible random corruptions.
We empirically and theoretically investigate whether robustness is transferable
across different Lp-norms and derive conclusions on which Lp-norm corruptions a
model should be trained and evaluated on. We find that training data
augmentation with L0-norm corruptions improves corruption robustness while
maintaining accuracy compared to standard training and when applied on top of
selected state-of-the-art data augmentation techniques.
- Abstract(参考訳): 堅牢性は、安全性と信頼性を達成するための機械学習分類器の基本特性である。
逆ロバスト性および画像分類モデルの形式ロバスト性検証の分野において、ロバスト性はlpノルム距離内の全ての入力変動に対する安定性として一般に定義される。
しかし、ランダムな汚職に対する堅牢性は通常、現実世界で観測された変動を利用して改善され評価されるが、数学的に定義されたLp-ノルムの汚職はほとんど考慮されない。
本研究では,画像分類器のトレーニングとテストデータを強化するために,ランダムなlp-ノルム腐敗の利用を検討する。
我々は,非知覚的無作為な腐敗に対するモデルロバスト性を評価するために,敵対的ロバストネスの分野からのアプローチを適用する。
我々は,異なるlpノルム間でロバスト性が伝達可能かどうかを実証的・理論的に検討し,モデルが学習・評価すべきlpノルム崩壊の結論を導出する。
その結果,l0-ノルム劣化を伴うトレーニングデータの強化は,標準訓練に比べて精度を維持しつつ腐敗の頑健性を向上させることが判明した。
関連論文リスト
- Enhancing Infrared Small Target Detection Robustness with Bi-Level
Adversarial Framework [61.34862133870934]
本稿では,異なる汚職の存在下での検出の堅牢性を促進するために,二段階の対向的枠組みを提案する。
我々の手法は広範囲の汚職で21.96%のIOUを著しく改善し、特に一般ベンチマークで4.97%のIOUを推進している。
論文 参考訳(メタデータ) (2023-09-03T06:35:07Z) - Frequency-Based Vulnerability Analysis of Deep Learning Models against
Image Corruptions [48.34142457385199]
MUFIAは、モデルが失敗する可能性のある特定の種類の汚職を特定するために設計されたアルゴリズムである。
最先端のモデルでさえ、既知の一般的な汚職に対して堅牢であるように訓練されたモデルでさえ、MUFIAによって作られた低視認性ベースの汚職と戦っている。
論文 参考訳(メタデータ) (2023-06-12T15:19:13Z) - Robo3D: Towards Robust and Reliable 3D Perception against Corruptions [58.306694836881235]
我々は,3次元検出器とセグメンタのロバスト性を,アウト・オブ・ディストリビューションのシナリオで検証するための,最初の総合的なベンチマークであるRobo3Dを紹介する。
気象条件の悪化,外乱,センサの故障などに起因する8種類の汚職について検討した。
本稿では,モデルレジリエンスを高めるための簡易なフレキシブルなボキセル化戦略とともに,密度に敏感なトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-30T17:59:17Z) - Utilizing Class Separation Distance for the Evaluation of Corruption
Robustness of Machine Learning Classifiers [0.6882042556551611]
本稿では,最小クラス分離距離のデータセットから得られるロバストネス距離$epsilon$を使用するテストデータ拡張手法を提案する。
結果として得られるMSCRメトリックは、その破損の堅牢性に関して異なる分類器のデータセット固有の比較を可能にする。
以上の結果から, 単純なデータ拡張によるロバストネストレーニングにより, 精度が若干向上することが示唆された。
論文 参考訳(メタデータ) (2022-06-27T15:56:16Z) - PRIME: A Few Primitives Can Boost Robustness to Common Corruptions [60.119023683371736]
ディープ・ネットワークは データの汚職を 一般化するのに苦労しています
本稿では,最大エントロピー画像変換の単純なファミリーからなる汎用データ拡張スキームPRIMEを提案する。
PRIMEは従来の汚損防止技術よりも優れており,そのシンプルさとプラグ・アンド・プレイ性により,他の手法と組み合わせて堅牢性をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-12-27T07:17:51Z) - Benchmarks for Corruption Invariant Person Re-identification [31.919264399996475]
本研究では,マーケット-1501,CUHK03,MSMT17,RegDB,SYSU-MM01など,単品間および多品間データセットにおける汚い不変性学習について検討した。
トランスフォーマーベースのモデルは、CNNベースのモデルと比較して、破損したイメージに対してより堅牢である。
クロスデータセットの一般化は、腐敗の堅牢性を高めることで改善される。
論文 参考訳(メタデータ) (2021-11-01T12:14:28Z) - Using Synthetic Corruptions to Measure Robustness to Natural
Distribution Shifts [6.445605125467574]
本研究では, 実世界の分布変化に対するロバストネスとより相関したロバストネス推定を行う合成汚濁ベンチマークを構築する手法を提案する。
提案手法を適用し,画像分類器の堅牢性を予測するために,ImageNet-Syn2Natと呼ばれる新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2021-07-26T09:20:49Z) - Using the Overlapping Score to Improve Corruption Benchmarks [6.445605125467574]
本稿では、汚職ベンチマークの欠陥を明らかにするために、汚職重複スコアと呼ばれる指標を提案する。
汚職間の重複を考慮に入れれば、既存のベンチマークを改善したり、より良いベンチマークを構築するのに役立ちます。
論文 参考訳(メタデータ) (2021-05-26T06:42:54Z) - Improving robustness against common corruptions with frequency biased
models [112.65717928060195]
目に見えない画像の腐敗は 驚くほど大きなパフォーマンス低下を引き起こします
画像の破損タイプは周波数スペクトルで異なる特性を持ち、ターゲットタイプのデータ拡張の恩恵を受けます。
畳み込み特徴マップの総変動(TV)を最小限に抑え、高周波堅牢性を高める新しい正規化方式を提案する。
論文 参考訳(メタデータ) (2021-03-30T10:44:50Z) - On Interaction Between Augmentations and Corruptions in Natural
Corruption Robustness [78.6626755563546]
ImageNet-Cのパフォーマンスを大幅に改善するいくつかの新しいデータ拡張が提案されている。
我々は,類似度と性能の間に強い相関があることを示すために,最小サンプル距離(minimal sample distance)と呼ばれる拡張と腐敗の間の新たな尺度を開発した。
テストタイムの破損がImageNet-Cと知覚的に異なる場合, 破損の顕著な劣化を観察する。
以上の結果から,テストエラーは知覚的に類似した拡張をトレーニングすることで改善できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-02-22T18:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。