論文の概要: PRIME: A Few Primitives Can Boost Robustness to Common Corruptions
- arxiv url: http://arxiv.org/abs/2112.13547v1
- Date: Mon, 27 Dec 2021 07:17:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 15:16:33.080498
- Title: PRIME: A Few Primitives Can Boost Robustness to Common Corruptions
- Title(参考訳): PRIME: 民事破壊でロバスト性を高めるプリミティブは少ない
- Authors: Apostolos Modas, Rahul Rade, Guillermo Ortiz-Jim\'enez, Seyed-Mohsen
Moosavi-Dezfooli, Pascal Frossard
- Abstract要約: ディープ・ネットワークは データの汚職を 一般化するのに苦労しています
本稿では,最大エントロピー画像変換の単純なファミリーからなる汎用データ拡張スキームPRIMEを提案する。
PRIMEは従来の汚損防止技術よりも優れており,そのシンプルさとプラグ・アンド・プレイ性により,他の手法と組み合わせて堅牢性をさらに向上させることができる。
- 参考スコア(独自算出の注目度): 60.119023683371736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite their impressive performance on image classification tasks, deep
networks have a hard time generalizing to many common corruptions of their
data. To fix this vulnerability, prior works have mostly focused on increasing
the complexity of their training pipelines, combining multiple methods, in the
name of diversity. However, in this work, we take a step back and follow a
principled approach to achieve robustness to common corruptions. We propose
PRIME, a general data augmentation scheme that consists of simple families of
max-entropy image transformations. We show that PRIME outperforms the prior art
for corruption robustness, while its simplicity and plug-and-play nature
enables it to be combined with other methods to further boost their robustness.
Furthermore, we analyze PRIME to shed light on the importance of the mixing
strategy on synthesizing corrupted images, and to reveal the
robustness-accuracy trade-offs arising in the context of common corruptions.
Finally, we show that the computational efficiency of our method allows it to
be easily used in both on-line and off-line data augmentation schemes.
- Abstract(参考訳): 画像分類タスクにおける優れたパフォーマンスにもかかわらず、ディープネットワークはデータの多くの一般的な破損を一般化するのは難しい。
この脆弱性を修正するために、以前の作業は主にトレーニングパイプラインの複雑さを増し、多様性という名目で複数のメソッドを組み合わせることに焦点を当てていた。
しかし、本研究では、我々は一歩後退し、共通の腐敗に対する堅牢性を達成するための原則的なアプローチに従う。
本稿では,最大エントロピー画像変換の単純なファミリーからなる汎用データ拡張スキームPRIMEを提案する。
PRIMEは従来の汚損防止技術よりも優れており,そのシンプルさとプラグアンドプレイ性により,他の手法と組み合わせて堅牢性をさらに向上させることができる。
さらに, 画像の合成における混合戦略の重要性に光を当てるためにPRIMEを解析し, 共通の腐敗の文脈で生じるロバスト性-精度トレードオフを明らかにする。
最後に,本手法の計算効率は,オンラインとオフラインのデータ拡張方式の両方において容易に利用できることを示す。
関連論文リスト
- Robust Classification by Coupling Data Mollification with Label Smoothing [25.66357344079206]
本稿では,ラベルのスムーズ化を図り,ラベルの信頼度を画像劣化と整合させることにより,画像のノイズ化とぼやけという形でデータモリフィケーションを結合する手法を提案する。
CIFARおよびTinyImageNetデータセットの劣化画像ベンチマークにおいて、ロバスト性および不確実性の向上を実証した。
論文 参考訳(メタデータ) (2024-06-03T16:21:29Z) - Quantified Task Misalignment to Inform PEFT: An Exploration of Domain
Generalization and Catastrophic Forgetting in CLIP [7.550566004119157]
CLIPモデルにおけるタスクの難易度とパラメータ効率の単純な微調整手法の性能の関係を解析する。
注意重みのサブセットのみを訓練する手法は、A-CLIPと呼ばれ、領域一般化と破滅的忘れのバランスをとる。
論文 参考訳(メタデータ) (2024-02-14T23:01:03Z) - Enhancing Infrared Small Target Detection Robustness with Bi-Level
Adversarial Framework [61.34862133870934]
本稿では,異なる汚職の存在下での検出の堅牢性を促進するために,二段階の対向的枠組みを提案する。
我々の手法は広範囲の汚職で21.96%のIOUを著しく改善し、特に一般ベンチマークで4.97%のIOUを推進している。
論文 参考訳(メタデータ) (2023-09-03T06:35:07Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Building Robust Ensembles via Margin Boosting [98.56381714748096]
敵のロバスト性においては、単一のモデルは通常、全ての敵の攻撃に対して十分な力を持っていない。
我々は最大利得のアンサンブルを学習するアルゴリズムを開発した。
提案アルゴリズムは,既存のアンサンブル技術に勝るだけでなく,エンド・ツー・エンドで訓練された大規模モデルにも勝ることを示す。
論文 参考訳(メタデータ) (2022-06-07T14:55:58Z) - VITA: A Multi-Source Vicinal Transfer Augmentation Method for
Out-of-Distribution Generalization [107.96139593283547]
マルチソースビジナルトランスファー(VITA)法を提案する。
提案したVITAは2つの相補的な部分から構成される。
提案したVITAは, 汚損評価ベンチマークの広範な実験において, 現在の最先端化手法よりも優れていた。
論文 参考訳(メタデータ) (2022-04-25T09:47:51Z) - Dynamic Feature Regularized Loss for Weakly Supervised Semantic
Segmentation [37.43674181562307]
動的に更新される浅度と深度の両方の機能を利用する新たな正規化損失を提案する。
提案手法は,新しい最先端性能を実現し,他の手法よりも6%以上のmIoU増加率で優れたマージンを達成している。
論文 参考訳(メタデータ) (2021-08-03T05:11:00Z) - A simple way to make neural networks robust against diverse image
corruptions [29.225922892332342]
加法ガウスノイズとスペククルノイズを用いた簡易だが適切に調整されたトレーニングが、予期せぬ汚職に対して驚くほどうまく一般化することを示す。
非相関な最悪の雑音に対する認識モデルの逆トレーニングは、さらなる性能向上につながる。
論文 参考訳(メタデータ) (2020-01-16T20:10:25Z) - Corruption-robust exploration in episodic reinforcement learning [76.19192549843727]
本研究は, システムにおける報酬と遷移確率の両面において, 敵対的腐敗下での多段階・多段階・多段階強化学習について検討した。
我々の枠組みは、汚職の欠如をほぼ最適に後悔する効率的なアルゴリズムをもたらす。
特に,本研究は,根本的強化学習のためのBandit-Feedbackモデルにおいて,純粋にI.d.遷移からの逸脱を保証した最初のサブ線形後悔の保証を提供する。
論文 参考訳(メタデータ) (2019-11-20T03:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。