論文の概要: RobustCLEVR: A Benchmark and Framework for Evaluating Robustness in
Object-centric Learning
- arxiv url: http://arxiv.org/abs/2308.14899v1
- Date: Mon, 28 Aug 2023 20:52:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 16:37:32.543562
- Title: RobustCLEVR: A Benchmark and Framework for Evaluating Robustness in
Object-centric Learning
- Title(参考訳): RobustCLEVR: オブジェクト指向学習におけるロバスト性評価のためのベンチマークとフレームワーク
- Authors: Nathan Drenkow, Mathias Unberath
- Abstract要約: 本稿では,RobustCLEVRベンチマークデータセットと評価フレームワークを提案する。
我々のフレームワークは、因果依存性の仕様化を可能にすることによって、ロバスト性を評価するための新しいアプローチを採っている。
全体として、オブジェクト中心の手法は本質的に画像の破損に対して堅牢ではないことが分かる。
- 参考スコア(独自算出の注目度): 9.308581290987783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Object-centric representation learning offers the potential to overcome
limitations of image-level representations by explicitly parsing image scenes
into their constituent components. While image-level representations typically
lack robustness to natural image corruptions, the robustness of object-centric
methods remains largely untested. To address this gap, we present the
RobustCLEVR benchmark dataset and evaluation framework. Our framework takes a
novel approach to evaluating robustness by enabling the specification of causal
dependencies in the image generation process grounded in expert knowledge and
capable of producing a wide range of image corruptions unattainable in existing
robustness evaluations. Using our framework, we define several causal models of
the image corruption process which explicitly encode assumptions about the
causal relationships and distributions of each corruption type. We generate
dataset variants for each causal model on which we evaluate state-of-the-art
object-centric methods. Overall, we find that object-centric methods are not
inherently robust to image corruptions. Our causal evaluation approach exposes
model sensitivities not observed using conventional evaluation processes,
yielding greater insight into robustness differences across algorithms. Lastly,
while conventional robustness evaluations view corruptions as
out-of-distribution, we use our causal framework to show that even training on
in-distribution image corruptions does not guarantee increased model
robustness. This work provides a step towards more concrete and substantiated
understanding of model performance and deterioration under complex corruption
processes of the real-world.
- Abstract(参考訳): オブジェクト中心表現学習は、イメージシーンを構成要素に明示的に解析することで、画像レベルの表現の限界を克服する可能性を提供する。
画像レベルの表現は通常、自然画像の腐敗に対する堅牢性に欠けるが、オブジェクト中心のメソッドの堅牢性はほとんどテストされていない。
このギャップに対処するため,ロバストCLEVRベンチマークデータセットと評価フレームワークを提案する。
本フレームワークは,知識を基礎とした画像生成プロセスにおける因果依存性の特定を可能にし,既存のロバスト性評価では達成不可能な幅広い画像汚職を発生させることにより,ロバスト性の評価に新たなアプローチをとる。
この枠組みを用いて,各汚職タイプの因果関係と分布に関する仮定を明示的にエンコードする,画像汚損プロセスのいくつかの因果モデルを定義する。
我々は、最先端のオブジェクト中心手法を評価する因果モデル毎にデータセットの変種を生成する。
全体として、オブジェクト中心の手法は本質的に画像の破損に対して堅牢ではない。
因果評価アプローチは,従来の評価プロセスでは観察されなかったモデルの感度を露呈し,アルゴリズム間のロバスト性差に対する深い洞察を与える。
最後に, 従来のロバスト性評価では, 汚職をアウト・オブ・ディストリビューションと見なしているが, 因果的枠組みを用いて, 分布内画像汚損のトレーニングにおいてもモデルロバスト性の増加は保証されないことを示す。
この研究は、現実世界の複雑な汚職プロセス下でのモデル性能と劣化に関するより具体的で実証された理解への一歩を提供する。
関連論文リスト
- Leveraging generative models to characterize the failure conditions of image classifiers [5.018156030818883]
我々は、ジェネレーティブ・ディバイサル・ネットワーク(StyleGAN2)が利用できる高品質画像データの制御可能な分布を生成する能力を活用する。
フェール条件は、生成モデル潜在空間における強い性能劣化の方向として表現される。
論文 参考訳(メタデータ) (2024-10-01T08:52:46Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Frequency-Based Vulnerability Analysis of Deep Learning Models against
Image Corruptions [48.34142457385199]
MUFIAは、モデルが失敗する可能性のある特定の種類の汚職を特定するために設計されたアルゴリズムである。
最先端のモデルでさえ、既知の一般的な汚職に対して堅牢であるように訓練されたモデルでさえ、MUFIAによって作られた低視認性ベースの汚職と戦っている。
論文 参考訳(メタデータ) (2023-06-12T15:19:13Z) - A Survey on the Robustness of Computer Vision Models against Common Corruptions [3.6486148851646063]
コンピュータビジョンモデルは、センサーエラーや極端な撮像環境に起因する入力画像の変化に影響を受けやすい。
これらの破損は、現実のシナリオにデプロイする際のモデルの信頼性を著しく損なう可能性がある。
本稿では,コンピュータビジョンモデルの汎用汚職に対する堅牢性を改善する手法について概観する。
論文 参考訳(メタデータ) (2023-05-10T10:19:31Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Robustness and invariance properties of image classifiers [8.970032486260695]
ディープニューラルネットワークは多くの画像分類タスクで印象的な結果を得た。
ディープネットワークは、多種多様なセマンティック保存画像修正に対して堅牢ではない。
画像分類器の小さなデータ分散シフトに対する堅牢性の低さは、その信頼性に関する深刻な懸念を引き起こす。
論文 参考訳(メタデータ) (2022-08-30T11:00:59Z) - Exploring Resolution and Degradation Clues as Self-supervised Signal for
Low Quality Object Detection [77.3530907443279]
劣化した低解像度画像中の物体を検出するための,新しい自己教師型フレームワークを提案する。
本手法は, 既存手法と比較して, 異変劣化状況に直面する場合に比べ, 優れた性能を示した。
論文 参考訳(メタデータ) (2022-08-05T09:36:13Z) - RestoreDet: Degradation Equivariant Representation for Object Detection
in Low Resolution Images [81.91416537019835]
劣化した低解像度画像中のオブジェクトを検出するための新しいフレームワークであるRestoreDetを提案する。
CenterNetをベースとした本フレームワークは, 既存手法と比較して, 異種劣化状況に直面する場合に比べ, 優れた性能を達成している。
論文 参考訳(メタデータ) (2022-01-07T03:40:23Z) - Robustness in Deep Learning for Computer Vision: Mind the gap? [13.576376492050185]
我々は、コンピュータビジョンのためのディープラーニングにおいて、現在の定義と非敵対的堅牢性に向けての進歩を特定し、分析し、要約する。
この研究の分野は、敵対的機械学習に対して、不当にあまり注目されていないことがわかりました。
論文 参考訳(メタデータ) (2021-12-01T16:42:38Z) - Improving robustness against common corruptions with frequency biased
models [112.65717928060195]
目に見えない画像の腐敗は 驚くほど大きなパフォーマンス低下を引き起こします
画像の破損タイプは周波数スペクトルで異なる特性を持ち、ターゲットタイプのデータ拡張の恩恵を受けます。
畳み込み特徴マップの総変動(TV)を最小限に抑え、高周波堅牢性を高める新しい正規化方式を提案する。
論文 参考訳(メタデータ) (2021-03-30T10:44:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。