論文の概要: A Self-Supervised Feature Map Augmentation (FMA) Loss and Combined
Augmentations Finetuning to Efficiently Improve the Robustness of CNNs
- arxiv url: http://arxiv.org/abs/2012.01386v1
- Date: Wed, 2 Dec 2020 18:32:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 04:14:13.515560
- Title: A Self-Supervised Feature Map Augmentation (FMA) Loss and Combined
Augmentations Finetuning to Efficiently Improve the Robustness of CNNs
- Title(参考訳): CNNのロバスト性を効果的に向上する自己改善型特徴マップ拡張(FMA)損失と組み合わせ強化
- Authors: Nikhil Kapoor, Chun Yuan, Jonas L\"ohdefink, Roland Zimmermann, Serin
Varghese, Fabian H\"uger, Nico Schmidt, Peter Schlicht, Tim Fingscheidt
- Abstract要約: 本稿では,FMA(Feature-map augmentation)損失と呼ばれる新たな正規化損失を提案する。
第2に、データ効率のよい方法で複数の拡張タイプに頑健な単一モデルを実現するための、新しい組合せ拡張(CA)ファインタニング戦略を提案する。
- 参考スコア(独自算出の注目度): 34.353598594018194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are often not robust to semantically-irrelevant changes
in the input. In this work we address the issue of robustness of
state-of-the-art deep convolutional neural networks (CNNs) against commonly
occurring distortions in the input such as photometric changes, or the addition
of blur and noise. These changes in the input are often accounted for during
training in the form of data augmentation. We have two major contributions:
First, we propose a new regularization loss called feature-map augmentation
(FMA) loss which can be used during finetuning to make a model robust to
several distortions in the input. Second, we propose a new combined
augmentations (CA) finetuning strategy, that results in a single model that is
robust to several augmentation types at the same time in a data-efficient
manner. We use the CA strategy to improve an existing state-of-the-art method
called stability training (ST). Using CA, on an image classification task with
distorted images, we achieve an accuracy improvement of on average 8.94% with
FMA and 8.86% with ST absolute on CIFAR-10 and 8.04% with FMA and 8.27% with ST
absolute on ImageNet, compared to 1.98% and 2.12%, respectively, with the well
known data augmentation method, while keeping the clean baseline performance.
- Abstract(参考訳): ディープニューラルネットワークは、入力の意味的に無関係な変化に対して堅牢ではないことが多い。
本研究では,光度変化やボケやノイズの付加といった入力の一般的な歪みに対する,最先端の深層畳み込みニューラルネットワーク(cnns)の頑健性の問題に対処する。
これらの入力の変化は、トレーニング中にデータ拡張の形で説明されることが多い。
まず、入力のいくつかの歪みに対してモデルが頑健になるように、微調整中に使用できる機能マップ拡張(fma)損失と呼ばれる新しい正規化損失を提案する。
第2に,データ効率の良い方法で複数の拡張型に対してロバストな単一モデルを実現する,新しい複合拡張(ca)微調整戦略を提案する。
安定トレーニング(st)と呼ばれる既存の最先端手法を改善するために,ca戦略を用いる。
画像の歪みを伴う画像分類タスクでは,fmaでは平均8.94%,cifar-10ではstが8.86%,imagenetではfmaが8.04%,imagenetではstが8.27%,よく知られたデータ拡張法では1.8%,2.12%の精度向上を達成し,ベースライン性能を維持した。
関連論文リスト
- Fixed Point Diffusion Models [13.035518953879539]
FPDM(Fixed Point Diffusion Model)は、FPDM(Fixed Point Diffusion Model)の概念を拡散に基づく生成モデルに組み込んだ画像生成手法である。
提案手法では,拡散モデルのデノナイズネットワークに暗黙の固定点解法層を埋め込み,拡散過程を密接な関係のある固定点問題列に変換する。
我々は、ImageNet、FFHQ、CelebA-HQ、LSUN-Churchの最先端モデルを用いて実験を行い、性能と効率を大幅に改善した。
論文 参考訳(メタデータ) (2024-01-16T18:55:54Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Robustmix: Improving Robustness by Regularizing the Frequency Bias of
Deep Nets [2.867517731896504]
本稿では、低周波空間特性に基づいてネットワークを正規化して分類する、Robostmixと呼ばれるMixupの新たな拡張を提案する。
この種の正規化は Imagenet-C や Stylized Imagenet などのベンチマークで改善されている。
論文 参考訳(メタデータ) (2023-04-06T03:24:00Z) - Robustifying Deep Vision Models Through Shape Sensitization [19.118696557797957]
そこで本研究では,ネットワークの全体像を学習するためのインセンティブを明示的に付与する,シンプルで軽量な対向拡張手法を提案する。
我々の拡張は、ランダムに決定された混合比を用いて、シャッフルパッチで、ある画像から別の画像へのエッジマップを重畳する。
この拡張により,データセットやニューラルアーキテクチャの分類精度とロバストネスが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-11-14T11:17:46Z) - Soft Augmentation for Image Classification [68.71067594724663]
本稿では,変分変換による拡張の一般化とソフト拡張を提案する。
ソフトターゲットは、より攻撃的なデータ拡張を可能にすることを示す。
また,ソフト拡張が自己教師付き分類タスクに一般化されることも示している。
論文 参考訳(メタデータ) (2022-11-09T01:04:06Z) - Magic ELF: Image Deraining Meets Association Learning and Transformer [63.761812092934576]
本稿では,CNN と Transformer を統合化して,画像デライニングにおける学習のメリットを活用することを目的とする。
降雨除去と背景復旧を関連づける新しいマルチインプット・アテンション・モジュール (MAM) を提案する。
提案手法(ELF)は,最先端手法(MPRNet)を平均0.25dB向上させる。
論文 参考訳(メタデータ) (2022-07-21T12:50:54Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - Variability-Aware Training and Self-Tuning of Highly Quantized DNNs for
Analog PIM [0.15229257192293197]
我々は高量子化アナログPIMモデルのための新しい共同変数と量子化対応DNNトレーニングアルゴリズムを開発した。
低ビット幅モデルと高変動モデルでは、ResNet-18の精度は35.7%まで向上する。
論文 参考訳(メタデータ) (2021-11-11T20:55:02Z) - Improving the Deployment of Recycling Classification through Efficient
Hyper-Parameter Analysis [0.0]
本稿では,協調的なリサイクル分類モデルであるWasteNetのより効率的なバージョンを開発する。
新たに開発されたモデルは、テストセット精度95.8%、実世界の精度95%、オリジナルよりも14%向上した。
私たちの加速パイプラインは、Jetson Nano組み込みデバイスで毎秒750%から24パーセントの速度でモデルスループットを向上しました。
論文 参考訳(メタデータ) (2021-10-21T10:42:14Z) - Improving robustness against common corruptions with frequency biased
models [112.65717928060195]
目に見えない画像の腐敗は 驚くほど大きなパフォーマンス低下を引き起こします
画像の破損タイプは周波数スペクトルで異なる特性を持ち、ターゲットタイプのデータ拡張の恩恵を受けます。
畳み込み特徴マップの総変動(TV)を最小限に抑え、高周波堅牢性を高める新しい正規化方式を提案する。
論文 参考訳(メタデータ) (2021-03-30T10:44:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。