論文の概要: Frequency-Based Vulnerability Analysis of Deep Learning Models against
Image Corruptions
- arxiv url: http://arxiv.org/abs/2306.07178v1
- Date: Mon, 12 Jun 2023 15:19:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 14:12:09.821447
- Title: Frequency-Based Vulnerability Analysis of Deep Learning Models against
Image Corruptions
- Title(参考訳): 画像破損に対するディープラーニングモデルの周波数ベース脆弱性解析
- Authors: Harshitha Machiraju, Michael H. Herzog, Pascal Frossard
- Abstract要約: MUFIAは、モデルが失敗する可能性のある特定の種類の汚職を特定するために設計されたアルゴリズムである。
最先端のモデルでさえ、既知の一般的な汚職に対して堅牢であるように訓練されたモデルでさえ、MUFIAによって作られた低視認性ベースの汚職と戦っている。
- 参考スコア(独自算出の注目度): 48.34142457385199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models often face challenges when handling real-world image
corruptions. In response, researchers have developed image corruption datasets
to evaluate the performance of deep neural networks in handling such
corruptions. However, these datasets have a significant limitation: they do not
account for all corruptions encountered in real-life scenarios. To address this
gap, we present MUFIA (Multiplicative Filter Attack), an algorithm designed to
identify the specific types of corruptions that can cause models to fail. Our
algorithm identifies the combination of image frequency components that render
a model susceptible to misclassification while preserving the semantic
similarity to the original image. We find that even state-of-the-art models
trained to be robust against known common corruptions struggle against the low
visibility-based corruptions crafted by MUFIA. This highlights the need for
more comprehensive approaches to enhance model robustness against a wider range
of real-world image corruptions.
- Abstract(参考訳): ディープラーニングモデルは、現実世界の画像腐敗を扱うときにしばしば課題に直面する。
これに応えて、研究者は画像汚職データセットを開発し、そのような汚職を扱うディープニューラルネットワークの性能を評価する。
しかし、これらのデータセットには重大な制限があり、実際のシナリオで発生するすべての腐敗を考慮に入れていない。
このギャップに対処するために、我々は、モデルが失敗する可能性のある特定のタイプの腐敗を特定するために設計されたアルゴリズムであるmufia(multiplicative filter attack)を提案する。
本アルゴリズムは,モデルの誤分類を許容する画像周波数成分の組み合わせを同定し,元の画像と意味的類似性を保ちながら識別する。
最先端のモデルでさえ、既知の一般的な汚職に対して堅牢であるように訓練されたモデルでさえ、MUFIAによって作られた低視認性ベースの汚職と戦っている。
これは、より広い範囲の現実世界の画像破損に対してモデルのロバスト性を高めるためのより包括的なアプローチの必要性を強調している。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Exploring the Robustness of Human Parsers Towards Common Corruptions [99.89886010550836]
我々は,LIP-C,ATR-C,Pascal-Person-Part-Cという3つの汚職堅牢性ベンチマークを構築し,人間の解析モデルのリスク許容度を評価する。
データ強化戦略に触発されて、一般に破損した条件下で頑健性を高めるための新しい異種強化機構を提案する。
論文 参考訳(メタデータ) (2023-09-02T13:32:14Z) - RobustCLEVR: A Benchmark and Framework for Evaluating Robustness in
Object-centric Learning [9.308581290987783]
本稿では,RobustCLEVRベンチマークデータセットと評価フレームワークを提案する。
我々のフレームワークは、因果依存性の仕様化を可能にすることによって、ロバスト性を評価するための新しいアプローチを採っている。
全体として、オブジェクト中心の手法は本質的に画像の破損に対して堅牢ではないことが分かる。
論文 参考訳(メタデータ) (2023-08-28T20:52:18Z) - Hierarchical Contrastive Learning for Pattern-Generalizable Image
Corruption Detection [40.04083743934034]
劣化領域を検出するための階層的コントラスト学習フレームワークを開発する。
特殊な階層的相互作用機構は、異なるスケールでのコントラスト学習の知識を促進するように設計されている。
我々のモデルは様々な汚職パターンにまたがってよく一般化できる。
論文 参考訳(メタデータ) (2023-08-27T10:03:48Z) - A Survey on the Robustness of Computer Vision Models against Common
Corruptions [3.9858496473361402]
本稿では,コンピュータビジョンモデルの汎用汚職に対する堅牢性を改善する手法について概観する。
いくつかのデータセットでロバスト性のパフォーマンスを比較するために、統一ベンチマークフレームワークをリリースしました。
論文 参考訳(メタデータ) (2023-05-10T10:19:31Z) - Soft Diffusion: Score Matching for General Corruptions [84.26037497404195]
我々は,任意の線形汚職過程のスコア関数を確実に学習するSoft Score Matchingと呼ばれる新しい目的を提案する。
本研究の目的は, 汚職過程の家族に対して, 適正な規則性条件下での確率の勾配を学習することである。
提案手法はCelebA-64上でのFIDスコアを1.85ドルで達成し,従来の線形拡散モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-12T17:45:03Z) - Improving robustness against common corruptions with frequency biased
models [112.65717928060195]
目に見えない画像の腐敗は 驚くほど大きなパフォーマンス低下を引き起こします
画像の破損タイプは周波数スペクトルで異なる特性を持ち、ターゲットタイプのデータ拡張の恩恵を受けます。
畳み込み特徴マップの総変動(TV)を最小限に抑え、高周波堅牢性を高める新しい正規化方式を提案する。
論文 参考訳(メタデータ) (2021-03-30T10:44:50Z) - On Interaction Between Augmentations and Corruptions in Natural
Corruption Robustness [78.6626755563546]
ImageNet-Cのパフォーマンスを大幅に改善するいくつかの新しいデータ拡張が提案されている。
我々は,類似度と性能の間に強い相関があることを示すために,最小サンプル距離(minimal sample distance)と呼ばれる拡張と腐敗の間の新たな尺度を開発した。
テストタイムの破損がImageNet-Cと知覚的に異なる場合, 破損の顕著な劣化を観察する。
以上の結果から,テストエラーは知覚的に類似した拡張をトレーニングすることで改善できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-02-22T18:58:39Z) - A simple way to make neural networks robust against diverse image
corruptions [29.225922892332342]
加法ガウスノイズとスペククルノイズを用いた簡易だが適切に調整されたトレーニングが、予期せぬ汚職に対して驚くほどうまく一般化することを示す。
非相関な最悪の雑音に対する認識モデルの逆トレーニングは、さらなる性能向上につながる。
論文 参考訳(メタデータ) (2020-01-16T20:10:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。