論文の概要: SaliencyMix: A Saliency Guided Data Augmentation Strategy for Better
Regularization
- arxiv url: http://arxiv.org/abs/2006.01791v2
- Date: Tue, 27 Jul 2021 13:02:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-11-25 23:34:47.967506
- Title: SaliencyMix: A Saliency Guided Data Augmentation Strategy for Better
Regularization
- Title(参考訳): SaliencyMix: 正規化を改善するためのSaliency Guided Data Augmentation戦略
- Authors: A. F. M. Shahab Uddin, Mst. Sirazam Monira, Wheemyung Shin, TaeChoong
Chung and Sung-Ho Bae
- Abstract要約: 本研究では,ディープラーニングモデルの一般化能力を向上させるために,SaliencyMixを提案する。
SaliencyMixは、サリエンシマップの助けを借りて代表画像パッチを慎重に選択し、この表示パッチと対象画像とを混合する。
SaliencyMixは、ImageNet分類上のResNet-50およびResNet-101アーキテクチャにおいて、21.26%と20.09%の21.26%の既知のトップ1エラーを達成している。
- 参考スコア(独自算出の注目度): 9.126576583256506
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advanced data augmentation strategies have widely been studied to improve the
generalization ability of deep learning models. Regional dropout is one of the
popular solutions that guides the model to focus on less discriminative parts
by randomly removing image regions, resulting in improved regularization.
However, such information removal is undesirable. On the other hand, recent
strategies suggest to randomly cut and mix patches and their labels among
training images, to enjoy the advantages of regional dropout without having any
pointless pixel in the augmented images. We argue that such random selection
strategies of the patches may not necessarily represent sufficient information
about the corresponding object and thereby mixing the labels according to that
uninformative patch enables the model to learn unexpected feature
representation. Therefore, we propose SaliencyMix that carefully selects a
representative image patch with the help of a saliency map and mixes this
indicative patch with the target image, thus leading the model to learn more
appropriate feature representation. SaliencyMix achieves the best known top-1
error of 21.26% and 20.09% for ResNet-50 and ResNet-101 architectures on
ImageNet classification, respectively, and also improves the model robustness
against adversarial perturbations. Furthermore, models that are trained with
SaliencyMix help to improve the object detection performance. Source code is
available at https://github.com/SaliencyMix/SaliencyMix.
- Abstract(参考訳): 深層学習モデルの一般化能力を向上させるため,高度なデータ拡張戦略が広く研究されている。
地域ドロップアウトは、画像領域をランダムに除去することで、モデルを差別的でない部分に集中させる一般的なソリューションの1つである。
しかし、そのような情報除去は望ましくない。
一方,近年の手法では,トレーニング画像間でパッチやラベルをランダムにカット・ミックスし,拡張画像に無意味な画素を持たずに局所的なドロップアウトの利点を享受する手法が提案されている。
このようなランダムなパッチ選択戦略は、必ずしも対応するオブジェクトに関する十分な情報を表現している訳ではなく、不定形パッチに従ってラベルを混合することで、予期せぬ特徴表現を学習することができる。
そこで本研究では,サリエンシーマップを用いて代表画像パッチを慎重に選択し,この指標パッチと対象画像とを混合することにより,より適切な特徴表現を学習できるサリエンシーミックスを提案する。
SaliencyMix は ImageNet 分類における ResNet-50 と ResNet-101 アーキテクチャの 21.26% と 20.09% という既知のトップ-1 エラーをそれぞれ達成し、対向的摂動に対するモデルロバスト性を改善する。
さらに、saliencymixでトレーニングされたモデルは、オブジェクト検出のパフォーマンスを改善するのに役立つ。
ソースコードはhttps://github.com/SaliencyMix/SaliencyMixで入手できる。
関連論文リスト
- Semantically Proportional Patchmix for Few-Shot Learning [16.24173112047382]
少ないショットラーニングは、限られたラベル付きデータでしか見えないクラスを分類することを目的としている。
近年の研究では、単純な転写学習戦略によるトレーニングモデルが、数ショットの分類において競合的な結果が得られることが示されている。
トレーニング画像間でパッチをカット・ペーストするSePPMixを提案する。
論文 参考訳(メタデータ) (2022-02-17T13:24:33Z) - Evolving Image Compositions for Feature Representation Learning [22.22790506995431]
PatchMixは、グリッドのようなパターンで一対のイメージからパッチを合成することで、新しいサンプルを作成するデータ拡張手法である。
PatchMixを使用したImageNetでトレーニングされたResNet-50モデルは、幅広いベンチマークで優れた転送学習能力を示している。
論文 参考訳(メタデータ) (2021-06-16T17:57:18Z) - Survey: Image Mixing and Deleting for Data Augmentation [0.0]
画像のミキシングと削除は、データ拡張のサブ領域である。
このアプローチでトレーニングされたモデルは、うまく動作し、一般化することが示されている。
計算コストの低減と近年の成功により,画像の混合・削除技術が数多く提案されている。
論文 参考訳(メタデータ) (2021-06-13T20:32:24Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - ResizeMix: Mixing Data with Preserved Object Information and True Labels [57.00554495298033]
本研究は,データ混合におけるサリエンシー情報の重要性について検討し,サリエンシー情報は増補性能向上のために必要ではないことを見出した。
本稿では,より効率的で実装が容易なresizemix法を提案する。
論文 参考訳(メタデータ) (2020-12-21T03:43:13Z) - Shape-Texture Debiased Neural Network Training [50.6178024087048]
畳み込みニューラルネットワークは、トレーニングデータセットによって、テクスチャまたは形状にバイアスされることが多い。
形状・テクスチャ・デバイアスド学習のためのアルゴリズムを開発した。
実験により,本手法は複数の画像認識ベンチマークにおけるモデル性能の向上に成功していることが示された。
論文 参考訳(メタデータ) (2020-10-12T19:16:12Z) - Attentive CutMix: An Enhanced Data Augmentation Approach for Deep
Learning Based Image Classification [58.20132466198622]
そこで我々は,CutMixに基づく自然拡張拡張戦略であるAttentive CutMixを提案する。
各トレーニングイテレーションにおいて、特徴抽出器から中間注意マップに基づいて最も記述性の高い領域を選択する。
提案手法は単純かつ有効であり,実装が容易であり,ベースラインを大幅に向上させることができる。
論文 参考訳(メタデータ) (2020-03-29T15:01:05Z) - Un-Mix: Rethinking Image Mixtures for Unsupervised Visual Representation
Learning [108.999497144296]
近年の先進的な教師なし学習手法では,同じ画像から2つの「ビュー」を学習表現として比較するために,サイムズ様の枠組みを用いている。
この研究は、教師なし学習においてラベル空間上の距離の概念を巻き込み、正対と負対のソフトな類似度をモデルに認識させることを目的としている。
その概念的単純さにもかかわらず、この解 -- 教師なし画像混合(Un-Mix)により、変換された入力と対応する新しいラベル空間からより微妙でより堅牢で一般化された表現を学習できることを実証的に示す。
論文 参考訳(メタデータ) (2020-03-11T17:59:04Z) - Continual Local Replacement for Few-shot Learning [13.956960291580938]
少数ショット学習の目標は,1つないし少数のトレーニングデータに基づいて,新しいクラスを認識可能なモデルを学習することにある。
1)新しいクラスの優れた特徴表現が欠けていること、(2)ラベル付きデータの一部が真のデータ分布を正確に表現できないこと、である。
データ不足問題に対処するために,新たな局所的置換戦略を提案する。
論文 参考訳(メタデータ) (2020-01-23T04:26:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。