論文の概要: The Robustness of Computer Vision Models against Common Corruptions: a
Survey
- arxiv url: http://arxiv.org/abs/2305.06024v1
- Date: Wed, 10 May 2023 10:19:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 13:39:29.559582
- Title: The Robustness of Computer Vision Models against Common Corruptions: a
Survey
- Title(参考訳): 共通汚職に対するコンピュータビジョンモデルのロバスト性:調査
- Authors: Shunxin Wang, Raymond Veldhuis, Nicola Strisciuglio
- Abstract要約: 一般的な汚職は、現実のシナリオにおけるコンピュータビジョンモデルの適用性を妨げうる。
本稿では,コンピュータビジョンモデルの破壊堅牢性を改善する手法を包括的かつ体系的に概説する。
我々は,広範囲の汚職に対処し,限られたデータと計算資源で効率的に学習する手法の開発が,今後の発展に不可欠であることを確認した。
- 参考スコア(独自算出の注目度): 2.9477900773805032
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The performance of computer vision models is susceptible to unexpected
changes in input images when deployed in real scenarios. These changes are
referred to as common corruptions. While they can hinder the applicability of
computer vision models in real-world scenarios, they are not always considered
as a testbed for model generalization and robustness. In this survey, we
present a comprehensive and systematic overview of methods that improve
corruption robustness of computer vision models. Unlike existing surveys that
focus on adversarial attacks and label noise, we cover extensively the study of
robustness to common corruptions that can occur when deploying computer vision
models to work in practical applications. We describe different types of image
corruption and provide the definition of corruption robustness. We then
introduce relevant evaluation metrics and benchmark datasets. We categorize
methods into four groups. We also cover indirect methods that show improvements
in generalization and may improve corruption robustness as a byproduct. We
report benchmark results collected from the literature and find that they are
not evaluated in a unified manner, making it difficult to compare and analyze.
We thus built a unified benchmark framework to obtain directly comparable
results on benchmark datasets. Furthermore, we evaluate relevant backbone
networks pre-trained on ImageNet using our framework, providing an overview of
the base corruption robustness of existing models to help choose appropriate
backbones for computer vision tasks. We identify that developing methods to
handle a wide range of corruptions and efficiently learn with limited data and
computational resources is crucial for future development. Additionally, we
highlight the need for further investigation into the relationship among
corruption robustness, OOD generalization, and shortcut learning.
- Abstract(参考訳): コンピュータビジョンモデルの性能は、実際のシナリオに展開する際の予期せぬ入力画像の変化に影響を受けやすい。
これらの変化を共通汚職と呼ぶ。
現実のシナリオにおけるコンピュータビジョンモデルの適用性を阻害することができるが、モデル一般化と堅牢性のためのテストベッドとして常に考えられているわけではない。
本稿では,コンピュータビジョンモデルの破壊堅牢性を改善する手法を包括的かつ体系的に概説する。
対向攻撃やラベルノイズに焦点を当てた既存の調査とは違って,コンピュータビジョンモデルの実用的運用時に発生する一般的な腐敗に対するロバスト性の研究を幅広く取り上げている。
画像腐敗の異なるタイプを説明し,腐敗の堅牢性の定義を提供する。
次に、関連する評価指標とベンチマークデータセットを紹介します。
メソッドを4つのグループに分類する。
また,汎用性が向上し,副産物としての腐敗の堅牢性が向上する間接的手法についても紹介する。
文献から収集したベンチマーク結果を報告し,それらを統一的に評価しないことを見出し,比較・分析が困難となる。
これにより、ベンチマークデータセットで直接比較結果を得るための統合ベンチマークフレームワークを構築しました。
さらに,imagenetで事前学習したバックボーンネットワークの評価を行い,コンピュータビジョンタスクに適したバックボーンを選択するための既存モデルの基盤破壊性について概観した。
我々は,広範囲の汚職を処理し,限られたデータと計算資源で効率的に学習する手法の開発が今後の開発に不可欠であることを見出した。
さらに,汚職の堅牢性,OOD一般化,ショートカット学習との関係について,さらなる調査の必要性を強調した。
関連論文リスト
- PoseBench: Benchmarking the Robustness of Pose Estimation Models under Corruptions [57.871692507044344]
ポース推定は、単眼画像を用いて人や動物の解剖学的キーポイントを正確に同定することを目的としている。
現在のモデルは一般的に、クリーンなデータに基づいてトレーニングされ、テストされる。
実世界の腐敗に対するポーズ推定モデルの堅牢性を評価するためのベンチマークであるPoseBenchを紹介する。
論文 参考訳(メタデータ) (2024-06-20T14:40:17Z) - RobustCLEVR: A Benchmark and Framework for Evaluating Robustness in
Object-centric Learning [9.308581290987783]
本稿では,RobustCLEVRベンチマークデータセットと評価フレームワークを提案する。
我々のフレームワークは、因果依存性の仕様化を可能にすることによって、ロバスト性を評価するための新しいアプローチを採っている。
全体として、オブジェクト中心の手法は本質的に画像の破損に対して堅牢ではないことが分かる。
論文 参考訳(メタデータ) (2023-08-28T20:52:18Z) - Robustness and Generalization Performance of Deep Learning Models on
Cyber-Physical Systems: A Comparative Study [71.84852429039881]
調査は、センサーの故障やノイズなど、様々な摂動を扱うモデルの能力に焦点を当てている。
我々は,これらのモデルの一般化と伝達学習能力を,アウト・オブ・ディストリビューション(OOD)サンプルに公開することによって検証する。
論文 参考訳(メタデータ) (2023-06-13T12:43:59Z) - Frequency-Based Vulnerability Analysis of Deep Learning Models against
Image Corruptions [48.34142457385199]
MUFIAは、モデルが失敗する可能性のある特定の種類の汚職を特定するために設計されたアルゴリズムである。
最先端のモデルでさえ、既知の一般的な汚職に対して堅牢であるように訓練されたモデルでさえ、MUFIAによって作られた低視認性ベースの汚職と戦っている。
論文 参考訳(メタデータ) (2023-06-12T15:19:13Z) - Robo3D: Towards Robust and Reliable 3D Perception against Corruptions [58.306694836881235]
我々は,3次元検出器とセグメンタのロバスト性を,アウト・オブ・ディストリビューションのシナリオで検証するための,最初の総合的なベンチマークであるRobo3Dを紹介する。
気象条件の悪化,外乱,センサの故障などに起因する8種類の汚職について検討した。
本稿では,モデルレジリエンスを高めるための簡易なフレキシブルなボキセル化戦略とともに,密度に敏感なトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-30T17:59:17Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Robustness in Deep Learning for Computer Vision: Mind the gap? [13.576376492050185]
我々は、コンピュータビジョンのためのディープラーニングにおいて、現在の定義と非敵対的堅牢性に向けての進歩を特定し、分析し、要約する。
この研究の分野は、敵対的機械学習に対して、不当にあまり注目されていないことがわかりました。
論文 参考訳(メタデータ) (2021-12-01T16:42:38Z) - Benchmarking the Robustness of Spatial-Temporal Models Against
Corruptions [32.821121530785504]
我々は、画像の空間的腐敗を超えた時間的腐敗を考慮した、汚職堅牢性ベンチマーク、Mini Kinetics-CとMini SSV2-Cを確立する。
我々は、確立されたCNNベースおよびトランスフォーマーベースの時空間時間モデルにおける破壊堅牢性に関する徹底的な研究を行うための最初の試みを行う。
論文 参考訳(メタデータ) (2021-10-13T05:59:39Z) - Improving robustness against common corruptions with frequency biased
models [112.65717928060195]
目に見えない画像の腐敗は 驚くほど大きなパフォーマンス低下を引き起こします
画像の破損タイプは周波数スペクトルで異なる特性を持ち、ターゲットタイプのデータ拡張の恩恵を受けます。
畳み込み特徴マップの総変動(TV)を最小限に抑え、高周波堅牢性を高める新しい正規化方式を提案する。
論文 参考訳(メタデータ) (2021-03-30T10:44:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。