論文の概要: Larger is not Better: A Survey on the Robustness of Computer Vision
Models against Common Corruptions
- arxiv url: http://arxiv.org/abs/2305.06024v2
- Date: Fri, 11 Aug 2023 15:23:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 17:03:38.373832
- Title: Larger is not Better: A Survey on the Robustness of Computer Vision
Models against Common Corruptions
- Title(参考訳): より大きなものは良くない:共通の腐敗に対するコンピュータビジョンモデルのロバスト性に関する調査
- Authors: Shunxin Wang, Raymond Veldhuis, Christoph Brune, Nicola Strisciuglio
- Abstract要約: 本稿では,コンピュータビジョンモデルの汎用汚職に対する堅牢性を改善する手法について概観する。
いくつかのデータセットでロバスト性のパフォーマンスを比較するために、統一ベンチマークフレームワークをリリースしました。
- 参考スコア(独自算出の注目度): 3.8462971177171776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The performance of computer vision models are susceptible to unexpected
changes in input images, known as common corruptions (e.g. noise, blur,
illumination changes, etc.), that can hinder their reliability when deployed in
real scenarios. These corruptions are not always considered to test model
generalization and robustness. In this survey, we present a comprehensive
overview of methods that improve the robustness of computer vision models
against common corruptions. We categorize methods into four groups based on the
model part and training method addressed: data augmentation, representation
learning, knowledge distillation, and network components. We also cover
indirect methods for generalization and mitigation of shortcut learning,
potentially useful for corruption robustness. We release a unified benchmark
framework to compare robustness performance on several datasets, and address
the inconsistencies of evaluation in the literature. We provide an experimental
overview of the base corruption robustness of popular vision backbones, and
show that corruption robustness does not necessarily scale with model size. The
very large models (above 100M parameters) gain negligible robustness,
considering the increased computational requirements. To achieve generalizable
and robust computer vision models, we foresee the need of developing new
learning strategies to efficiently exploit limited data and mitigate unwanted
or unreliable learning behaviors.
- Abstract(参考訳): コンピュータビジョンモデルの性能は、一般的な汚職(ノイズ、ぼかし、照明変更など)として知られる入力画像の予期せぬ変化に影響を受けやすいため、実際のシナリオに展開する際の信頼性を損なう可能性がある。
これらの腐敗は必ずしもモデル一般化と堅牢性をテストするものではない。
本稿では,コンピュータビジョンモデルの汎用汚職に対する堅牢性向上手法について概説する。
提案手法は,データ拡張,表現学習,知識蒸留,ネットワークコンポーネントの4つのグループに分類される。
また,近道学習の一般化と緩和のための間接的手法についても紹介する。
いくつかのデータセットにおけるロバスト性性能を比較するための統一ベンチマークフレームワークをリリースし、文献における評価の不整合に対処する。
本稿では,一般的な視覚バックボーンの基部破壊堅牢性について実験的に概説し,破壊堅牢性は必ずしもモデルサイズに及ばないことを示す。
非常に大きなモデル(1億以上のパラメータ)は、計算要求の増加を考慮して無視可能な堅牢性を得る。
汎用的で堅牢なコンピュータビジョンモデルを実現するためには、限られたデータを効率的に活用し、望ましくない学習行動を緩和する新しい学習戦略を開発する必要がある。
関連論文リスト
- PoseBench: Benchmarking the Robustness of Pose Estimation Models under Corruptions [57.871692507044344]
ポース推定は、単眼画像を用いて人や動物の解剖学的キーポイントを正確に同定することを目的としている。
現在のモデルは一般的に、クリーンなデータに基づいてトレーニングされ、テストされる。
実世界の腐敗に対するポーズ推定モデルの堅牢性を評価するためのベンチマークであるPoseBenchを紹介する。
論文 参考訳(メタデータ) (2024-06-20T14:40:17Z) - RobustCLEVR: A Benchmark and Framework for Evaluating Robustness in
Object-centric Learning [9.308581290987783]
本稿では,RobustCLEVRベンチマークデータセットと評価フレームワークを提案する。
我々のフレームワークは、因果依存性の仕様化を可能にすることによって、ロバスト性を評価するための新しいアプローチを採っている。
全体として、オブジェクト中心の手法は本質的に画像の破損に対して堅牢ではないことが分かる。
論文 参考訳(メタデータ) (2023-08-28T20:52:18Z) - Robustness and Generalization Performance of Deep Learning Models on
Cyber-Physical Systems: A Comparative Study [71.84852429039881]
調査は、センサーの故障やノイズなど、様々な摂動を扱うモデルの能力に焦点を当てている。
我々は,これらのモデルの一般化と伝達学習能力を,アウト・オブ・ディストリビューション(OOD)サンプルに公開することによって検証する。
論文 参考訳(メタデータ) (2023-06-13T12:43:59Z) - Frequency-Based Vulnerability Analysis of Deep Learning Models against
Image Corruptions [48.34142457385199]
MUFIAは、モデルが失敗する可能性のある特定の種類の汚職を特定するために設計されたアルゴリズムである。
最先端のモデルでさえ、既知の一般的な汚職に対して堅牢であるように訓練されたモデルでさえ、MUFIAによって作られた低視認性ベースの汚職と戦っている。
論文 参考訳(メタデータ) (2023-06-12T15:19:13Z) - Robo3D: Towards Robust and Reliable 3D Perception against Corruptions [58.306694836881235]
我々は,3次元検出器とセグメンタのロバスト性を,アウト・オブ・ディストリビューションのシナリオで検証するための,最初の総合的なベンチマークであるRobo3Dを紹介する。
気象条件の悪化,外乱,センサの故障などに起因する8種類の汚職について検討した。
本稿では,モデルレジリエンスを高めるための簡易なフレキシブルなボキセル化戦略とともに,密度に敏感なトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-30T17:59:17Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Robustness in Deep Learning for Computer Vision: Mind the gap? [13.576376492050185]
我々は、コンピュータビジョンのためのディープラーニングにおいて、現在の定義と非敵対的堅牢性に向けての進歩を特定し、分析し、要約する。
この研究の分野は、敵対的機械学習に対して、不当にあまり注目されていないことがわかりました。
論文 参考訳(メタデータ) (2021-12-01T16:42:38Z) - Benchmarking the Robustness of Spatial-Temporal Models Against
Corruptions [32.821121530785504]
我々は、画像の空間的腐敗を超えた時間的腐敗を考慮した、汚職堅牢性ベンチマーク、Mini Kinetics-CとMini SSV2-Cを確立する。
我々は、確立されたCNNベースおよびトランスフォーマーベースの時空間時間モデルにおける破壊堅牢性に関する徹底的な研究を行うための最初の試みを行う。
論文 参考訳(メタデータ) (2021-10-13T05:59:39Z) - Improving robustness against common corruptions with frequency biased
models [112.65717928060195]
目に見えない画像の腐敗は 驚くほど大きなパフォーマンス低下を引き起こします
画像の破損タイプは周波数スペクトルで異なる特性を持ち、ターゲットタイプのデータ拡張の恩恵を受けます。
畳み込み特徴マップの総変動(TV)を最小限に抑え、高周波堅牢性を高める新しい正規化方式を提案する。
論文 参考訳(メタデータ) (2021-03-30T10:44:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。