論文の概要: Modularity Trumps Invariance for Compositional Robustness
- arxiv url: http://arxiv.org/abs/2306.09005v1
- Date: Thu, 15 Jun 2023 10:04:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 15:26:18.085632
- Title: Modularity Trumps Invariance for Compositional Robustness
- Title(参考訳): 構成的ロバスト性に対するモジュラリティ・トランプ不変性
- Authors: Ian Mason, Anirban Sarkar, Tomotake Sasaki, Xavier Boix
- Abstract要約: 構成画像分類タスクを開発し、いくつかの要素的汚職を考慮し、モデルにこれらの汚職の構成を一般化するよう依頼する。
このモジュラーアプローチは、非モジュラーアプローチよりも優れた構成的ロバスト性を実現することを示す。
- 参考スコア(独自算出の注目度): 6.176087000651376
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: By default neural networks are not robust to changes in data distribution.
This has been demonstrated with simple image corruptions, such as blurring or
adding noise, degrading image classification performance. Many methods have
been proposed to mitigate these issues but for the most part models are
evaluated on single corruptions. In reality, visual space is compositional in
nature, that is, that as well as robustness to elemental corruptions,
robustness to compositions of corruptions is also needed. In this work we
develop a compositional image classification task where, given a few elemental
corruptions, models are asked to generalize to compositions of these
corruptions. That is, to achieve compositional robustness. We experimentally
compare empirical risk minimization with an invariance building pairwise
contrastive loss and, counter to common intuitions in domain generalization,
achieve only marginal improvements in compositional robustness by encouraging
invariance. To move beyond invariance, following previously proposed inductive
biases that model architectures should reflect data structure, we introduce a
modular architecture whose structure replicates the compositional nature of the
task. We then show that this modular approach consistently achieves better
compositional robustness than non-modular approaches. We additionally find
empirical evidence that the degree of invariance between representations of
'in-distribution' elemental corruptions fails to correlate with robustness to
'out-of-distribution' compositions of corruptions.
- Abstract(参考訳): デフォルトでは、ニューラルネットワークはデータ分散の変化に対して堅牢ではない。
これは、ぼやけやノイズの追加といった単純な画像破損によって、画像分類のパフォーマンスを低下させることで実証されている。
これらの問題を緩和するために多くの方法が提案されているが、ほとんどのモデルは単一の腐敗で評価されている。
実際には、視覚空間は本質的に構成的であり、要素的腐敗に対する堅牢性と同様に、腐敗の構成に対する堅牢性も必要である。
本研究では,構成画像分類タスクを開発し,いくつかの要素的腐敗を考慮し,これらの破損の合成に一般化するモデルを提案する。
すなわち、構成的堅牢性を達成する。
経験的リスク最小化と一対の対比的損失とを実験的に比較し、ドメイン一般化における一般的な直観と対比して、不変性を促進することによって構成的ロバスト性における限界的改善のみを達成する。
モデルアーキテクチャがデータ構造を反映すべきという先述の帰納的バイアスに従い、不変性を超えて、構造がタスクの構成的性質を再現するモジュラーアーキテクチャを導入する。
そして、このモジュラーアプローチが非モジュラーアプローチよりも優れた構成的堅牢性を達成することを示す。
さらに,「分配内」要素的腐敗の表象間のばらつきの程度は,腐敗の「分配外」構成との強固さと相関しないという実証的な証拠も見いだした。
関連論文リスト
- SA-MixNet: Structure-aware Mixup and Invariance Learning for
Scribble-supervised Road Extraction in Remote Sensing Images [85.52629779976137]
複雑化の進んだ画像シーンを作成するために,ある画像から別の画像へ道路領域を貼り付ける構造を意識したミックスアップ方式を提案する。
道路構造を保ちながら接続性を高めるために,識別器に基づく正規化が設計されている。
われわれのフレームワークは、DeepGlobe、Wuhan、およびマサチューセッツのデータセット上で優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-03-03T02:56:43Z) - Hierarchical Randomized Smoothing [94.59984692215426]
ランダムな平滑化は、モデルが入力の小さな変更に対して確実に堅牢にするための強力なフレームワークです。
階層的ランダム化平滑化(hierarchical randomized smoothing): ランダムに選択されたエンティティのサブセットにのみランダムノイズを加えることで、部分的に滑らかなオブジェクトを生成する。
画像およびノード分類における階層的スムージングの重要性を実験的に示す。
論文 参考訳(メタデータ) (2023-10-24T22:24:44Z) - RobustCLEVR: A Benchmark and Framework for Evaluating Robustness in
Object-centric Learning [9.308581290987783]
本稿では,RobustCLEVRベンチマークデータセットと評価フレームワークを提案する。
我々のフレームワークは、因果依存性の仕様化を可能にすることによって、ロバスト性を評価するための新しいアプローチを採っている。
全体として、オブジェクト中心の手法は本質的に画像の破損に対して堅牢ではないことが分かる。
論文 参考訳(メタデータ) (2023-08-28T20:52:18Z) - Frequency-Based Vulnerability Analysis of Deep Learning Models against
Image Corruptions [48.34142457385199]
MUFIAは、モデルが失敗する可能性のある特定の種類の汚職を特定するために設計されたアルゴリズムである。
最先端のモデルでさえ、既知の一般的な汚職に対して堅牢であるように訓練されたモデルでさえ、MUFIAによって作られた低視認性ベースの汚職と戦っている。
論文 参考訳(メタデータ) (2023-06-12T15:19:13Z) - Bridging Component Learning with Degradation Modelling for Blind Image
Super-Resolution [69.11604249813304]
視覚障害者のためのコンポーネント分解・協調最適化ネットワーク(CDCN)を提案する。
CDCNは入力LR画像を特徴空間の構造と詳細成分に分解する。
本稿では,HR画像の細部と構造復元過程を協調的に監督する,劣化駆動型学習戦略を提案する。
論文 参考訳(メタデータ) (2022-12-03T14:53:56Z) - Robustness and invariance properties of image classifiers [8.970032486260695]
ディープニューラルネットワークは多くの画像分類タスクで印象的な結果を得た。
ディープネットワークは、多種多様なセマンティック保存画像修正に対して堅牢ではない。
画像分類器の小さなデータ分散シフトに対する堅牢性の低さは、その信頼性に関する深刻な懸念を引き起こす。
論文 参考訳(メタデータ) (2022-08-30T11:00:59Z) - Low-Light Image Enhancement with Normalizing Flow [92.52290821418778]
本稿では,この一対多の関係を正規化フローモデルを用いてモデル化する。
低照度画像/特徴を条件として取り、通常露光される画像の分布をガウス分布にマッピングすることを学ぶ可逆ネットワーク。
既存のベンチマークデータセットによる実験結果から,提案手法はより定量的,質的な結果を得ることができ,照度が良く,ノイズやアーティファクトが小さく,色も豊かになることがわかった。
論文 参考訳(メタデータ) (2021-09-13T12:45:08Z) - Does enhanced shape bias improve neural network robustness to common
corruptions? [14.607217936005817]
最近の研究は、ImageNetで訓練されたCNNがテクスチャをエンコードする機能に偏っていることを示している。
異なる画像スタイルでトレーニングデータを増強すると、このテクスチャバイアスが減少し、形状バイアスが増加することが示されている。
自然画像や明示的なエッジ情報,スタイライゼーションに基づいて,入力を構成するさまざまな方法に関する体系的な研究を行う。
論文 参考訳(メタデータ) (2021-04-20T07:06:53Z) - On Interaction Between Augmentations and Corruptions in Natural
Corruption Robustness [78.6626755563546]
ImageNet-Cのパフォーマンスを大幅に改善するいくつかの新しいデータ拡張が提案されている。
我々は,類似度と性能の間に強い相関があることを示すために,最小サンプル距離(minimal sample distance)と呼ばれる拡張と腐敗の間の新たな尺度を開発した。
テストタイムの破損がImageNet-Cと知覚的に異なる場合, 破損の顕著な劣化を観察する。
以上の結果から,テストエラーは知覚的に類似した拡張をトレーニングすることで改善できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-02-22T18:58:39Z) - A Unified Weight Learning and Low-Rank Regression Model for Robust
Complex Error Modeling [12.287346997617542]
回帰ベースのエラーモデルにおける最も重要な問題の1つは、画像の様々な汚職環境変化に起因する複雑な表現誤差をモデル化することである。
本稿では,画像中のランダムノイズを同時に扱えるような,統一的な重み学習と低ランク近似回帰モデルを提案する。
論文 参考訳(メタデータ) (2020-05-10T09:50:14Z) - A simple way to make neural networks robust against diverse image
corruptions [29.225922892332342]
加法ガウスノイズとスペククルノイズを用いた簡易だが適切に調整されたトレーニングが、予期せぬ汚職に対して驚くほどうまく一般化することを示す。
非相関な最悪の雑音に対する認識モデルの逆トレーニングは、さらなる性能向上につながる。
論文 参考訳(メタデータ) (2020-01-16T20:10:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。