論文の概要: A Self-Supervised Feature Map Augmentation (FMA) Loss and Combined
Augmentations Finetuning to Efficiently Improve the Robustness of CNNs
- arxiv url: http://arxiv.org/abs/2012.01386v1
- Date: Wed, 2 Dec 2020 18:32:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 04:14:13.515560
- Title: A Self-Supervised Feature Map Augmentation (FMA) Loss and Combined
Augmentations Finetuning to Efficiently Improve the Robustness of CNNs
- Title(参考訳): CNNのロバスト性を効果的に向上する自己改善型特徴マップ拡張(FMA)損失と組み合わせ強化
- Authors: Nikhil Kapoor, Chun Yuan, Jonas L\"ohdefink, Roland Zimmermann, Serin
Varghese, Fabian H\"uger, Nico Schmidt, Peter Schlicht, Tim Fingscheidt
- Abstract要約: 本稿では,FMA(Feature-map augmentation)損失と呼ばれる新たな正規化損失を提案する。
第2に、データ効率のよい方法で複数の拡張タイプに頑健な単一モデルを実現するための、新しい組合せ拡張(CA)ファインタニング戦略を提案する。
- 参考スコア(独自算出の注目度): 34.353598594018194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are often not robust to semantically-irrelevant changes
in the input. In this work we address the issue of robustness of
state-of-the-art deep convolutional neural networks (CNNs) against commonly
occurring distortions in the input such as photometric changes, or the addition
of blur and noise. These changes in the input are often accounted for during
training in the form of data augmentation. We have two major contributions:
First, we propose a new regularization loss called feature-map augmentation
(FMA) loss which can be used during finetuning to make a model robust to
several distortions in the input. Second, we propose a new combined
augmentations (CA) finetuning strategy, that results in a single model that is
robust to several augmentation types at the same time in a data-efficient
manner. We use the CA strategy to improve an existing state-of-the-art method
called stability training (ST). Using CA, on an image classification task with
distorted images, we achieve an accuracy improvement of on average 8.94% with
FMA and 8.86% with ST absolute on CIFAR-10 and 8.04% with FMA and 8.27% with ST
absolute on ImageNet, compared to 1.98% and 2.12%, respectively, with the well
known data augmentation method, while keeping the clean baseline performance.
- Abstract(参考訳): ディープニューラルネットワークは、入力の意味的に無関係な変化に対して堅牢ではないことが多い。
本研究では,光度変化やボケやノイズの付加といった入力の一般的な歪みに対する,最先端の深層畳み込みニューラルネットワーク(cnns)の頑健性の問題に対処する。
これらの入力の変化は、トレーニング中にデータ拡張の形で説明されることが多い。
まず、入力のいくつかの歪みに対してモデルが頑健になるように、微調整中に使用できる機能マップ拡張(fma)損失と呼ばれる新しい正規化損失を提案する。
第2に,データ効率の良い方法で複数の拡張型に対してロバストな単一モデルを実現する,新しい複合拡張(ca)微調整戦略を提案する。
安定トレーニング(st)と呼ばれる既存の最先端手法を改善するために,ca戦略を用いる。
画像の歪みを伴う画像分類タスクでは,fmaでは平均8.94%,cifar-10ではstが8.86%,imagenetではfmaが8.04%,imagenetではstが8.27%,よく知られたデータ拡張法では1.8%,2.12%の精度向上を達成し,ベースライン性能を維持した。
関連論文リスト
- MARS: Unleashing the Power of Variance Reduction for Training Large Models [56.47014540413659]
Adam、Adam、およびそれらの変種のような大規模な勾配アルゴリズムは、この種のトレーニングの開発の中心となっている。
本稿では,事前条件付き勾配最適化手法と,スケールドモーメント手法による分散低減を両立させる枠組みを提案する。
論文 参考訳(メタデータ) (2024-11-15T18:57:39Z) - Invertible Diffusion Models for Compressed Sensing [22.293412255419614]
Invertible Diffusion Models (IDM) は、新しい効率的でエンドツーエンドの拡散に基づくCS法である。
IDMはCS測定から直接元の画像を復元するためにエンドツーエンドに微調整する。
IDMは最大10.09dBのPSNRゲインと14.54倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-03-25T17:59:41Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Class-Conditioned Transformation for Enhanced Robust Image Classification [19.738635819545554]
本稿では,Adrial-versa-Trained (AT)モデルを強化する新しいテスト時間脅威モデルを提案する。
コンディショナル・イメージ・トランスフォーメーションとディスタンス・ベース・予測(CODIP)を用いて動作する。
提案手法は,様々なモデル,ATメソッド,データセット,アタックタイプに関する広範な実験を通じて,最先端の成果を実証する。
論文 参考訳(メタデータ) (2023-03-27T17:28:20Z) - Dynamic Test-Time Augmentation via Differentiable Functions [3.686808512438363]
DynTTAは、認識モデルを再訓練することなく、認識に優しい画像を生成する画像強調手法である。
DynTTAは、微分可能なデータ拡張技術に基づいて、多くの画像からブレンド画像を生成し、分布シフト時の認識精度を向上させる。
論文 参考訳(メタデータ) (2022-12-09T06:06:47Z) - Robustifying Deep Vision Models Through Shape Sensitization [19.118696557797957]
そこで本研究では,ネットワークの全体像を学習するためのインセンティブを明示的に付与する,シンプルで軽量な対向拡張手法を提案する。
我々の拡張は、ランダムに決定された混合比を用いて、シャッフルパッチで、ある画像から別の画像へのエッジマップを重畳する。
この拡張により,データセットやニューラルアーキテクチャの分類精度とロバストネスが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-11-14T11:17:46Z) - Soft Augmentation for Image Classification [68.71067594724663]
本稿では,変分変換による拡張の一般化とソフト拡張を提案する。
ソフトターゲットは、より攻撃的なデータ拡張を可能にすることを示す。
また,ソフト拡張が自己教師付き分類タスクに一般化されることも示している。
論文 参考訳(メタデータ) (2022-11-09T01:04:06Z) - Magic ELF: Image Deraining Meets Association Learning and Transformer [63.761812092934576]
本稿では,CNN と Transformer を統合化して,画像デライニングにおける学習のメリットを活用することを目的とする。
降雨除去と背景復旧を関連づける新しいマルチインプット・アテンション・モジュール (MAM) を提案する。
提案手法(ELF)は,最先端手法(MPRNet)を平均0.25dB向上させる。
論文 参考訳(メタデータ) (2022-07-21T12:50:54Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - Improving the Deployment of Recycling Classification through Efficient
Hyper-Parameter Analysis [0.0]
本稿では,協調的なリサイクル分類モデルであるWasteNetのより効率的なバージョンを開発する。
新たに開発されたモデルは、テストセット精度95.8%、実世界の精度95%、オリジナルよりも14%向上した。
私たちの加速パイプラインは、Jetson Nano組み込みデバイスで毎秒750%から24パーセントの速度でモデルスループットを向上しました。
論文 参考訳(メタデータ) (2021-10-21T10:42:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。