論文の概要: SAGE: Saliency-Guided Mixup with Optimal Rearrangements
- arxiv url: http://arxiv.org/abs/2211.00113v1
- Date: Mon, 31 Oct 2022 19:45:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 13:25:12.360089
- Title: SAGE: Saliency-Guided Mixup with Optimal Rearrangements
- Title(参考訳): SAGE: Saliency-Guided Mixupと最適リアレンジ
- Authors: Avery Ma, Nikita Dvornik, Ran Zhang, Leila Pishdad, Konstantinos G.
Derpanis, Afsaneh Fazly
- Abstract要約: 最適リアレンジメント(SAGE)を用いたサリエンシ誘導混合
SAGEは、ビジュアル・サリエンシをガイダンスとして、イメージペアを並べ替え、混合することで、新しいトレーニング例を作成する。
我々は, CIFAR-10 と CIFAR-100 について, SAGE がより効率的でありながら, より優れた性能と同等の性能を達成できることを実証した。
- 参考スコア(独自算出の注目度): 22.112463794733188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation is a key element for training accurate models by reducing
overfitting and improving generalization. For image classification, the most
popular data augmentation techniques range from simple photometric and
geometrical transformations, to more complex methods that use visual saliency
to craft new training examples. As augmentation methods get more complex, their
ability to increase the test accuracy improves, yet, such methods become
cumbersome, inefficient and lead to poor out-of-domain generalization, as we
show in this paper. This motivates a new augmentation technique that allows for
high accuracy gains while being simple, efficient (i.e., minimal computation
overhead) and generalizable. To this end, we introduce Saliency-Guided Mixup
with Optimal Rearrangements (SAGE), which creates new training examples by
rearranging and mixing image pairs using visual saliency as guidance. By
explicitly leveraging saliency, SAGE promotes discriminative foreground objects
and produces informative new images useful for training. We demonstrate on
CIFAR-10 and CIFAR-100 that SAGE achieves better or comparable performance to
the state of the art while being more efficient. Additionally, evaluations in
the out-of-distribution setting, and few-shot learning on mini-ImageNet, show
that SAGE achieves improved generalization performance without trading off
robustness.
- Abstract(参考訳): データ拡張は、オーバーフィッティングを減らし、一般化を改善することによって、正確なモデルをトレーニングするための重要な要素である。
画像分類では、最も一般的なデータ拡張技術は、単純な測光と幾何変換から、視覚的サリエンシを使って新しいトレーニング例を作成するより複雑な方法まで様々である。
拡張手法が複雑化するにつれて、テスト精度を向上させる能力は向上するが、これらの手法は困難で非効率になり、ドメイン外の一般化が貧弱になる。
これは、単純で効率的(最小の計算オーバーヘッド)で一般化可能でありながら高い精度のゲインを可能にする新しい拡張技術である。
そこで本研究では,視覚的サリエンシーを指導として画像ペアを再構成・混合することにより,新たなトレーニング例を作成するため,サリエンシーガイド付き最適再配置(sage)を提案する。
サリエンシを明示的に活用することにより、SAGEは差別的前景オブジェクトを促進し、トレーニングに有用な情報的新しい画像を生成する。
我々は, CIFAR-10 と CIFAR-100 を用いて, SAGE がより効率的でありながら, より優れた性能, 同等の性能を発揮することを示す。
さらに,Mini-ImageNetにおけるアウト・オブ・ディストリビューション・セッティングの評価や,少数ショット学習の結果から,SAGEはロバスト性を引き離すことなく,一般化性能の向上を実現していることが示された。
関連論文リスト
- Improving Visual Representation Learning through Perceptual
Understanding [0.0]
本稿では,より高度なシーンレベルの特徴の学習を明示的に奨励することにより,モデルによって学習された表現を改善するマスク付きオートエンコーダ(MAE)の拡張を提案する。
我々はImageNet-1Kで78.1%の精度で線形探索を行い、微調整時に88.1%の精度を達成し、他の下流タスクも同様の結果を得た。
論文 参考訳(メタデータ) (2022-12-30T00:59:46Z) - Soft Augmentation for Image Classification [68.71067594724663]
本稿では,変分変換による拡張の一般化とソフト拡張を提案する。
ソフトターゲットは、より攻撃的なデータ拡張を可能にすることを示す。
また,ソフト拡張が自己教師付き分類タスクに一般化されることも示している。
論文 参考訳(メタデータ) (2022-11-09T01:04:06Z) - Masked Autoencoders are Robust Data Augmentors [90.34825840657774]
ディープニューラルネットワークの一般化には、画像拡張のような正規化技術が必要である。
本稿では,トレーニングプロセスの正規化に向けて,新たな拡張の視点を提案する。
このようなモデルに基づく非線形変換をデータ拡張として活用することで,高レベルの認識タスクを向上できることを示す。
論文 参考訳(メタデータ) (2022-06-10T02:41:48Z) - Contrastive Learning Rivals Masked Image Modeling in Fine-tuning via
Feature Distillation [42.37533586611174]
Masked Image Modeling (MIM)は、非常に優れた微調整性能を持つ表現を学習する。
本稿では, 簡単な後処理により, 事前学習手法の微調整性能を著しく向上できることを示す。
論文 参考訳(メタデータ) (2022-05-27T17:59:36Z) - Pure Noise to the Rescue of Insufficient Data: Improving Imbalanced
Classification by Training on Random Noise Images [12.91269560135337]
我々は、この制限を緩和する驚くほど単純で効果的な方法を提案する。
データ拡張のための付加雑音や逆雑音の一般的な使用とは異なり、純粋ランダムノイズ画像の直接トレーニングを提案する。
本稿では,同一ネットワーク内の自然画像に加えて,純雑音画像のトレーニングを可能にするDAR-BNを新たに提案する。
論文 参考訳(メタデータ) (2021-12-16T11:51:35Z) - Revisiting Consistency Regularization for Semi-Supervised Learning [80.28461584135967]
そこで我々は,FeatDistLossというシンプルな手法により,一貫性の規則化を改良したフレームワークを提案する。
実験結果から,本モデルは様々なデータセットや設定のための新しい技術状態を定義する。
論文 参考訳(メタデータ) (2021-12-10T20:46:13Z) - A Generic Approach for Enhancing GANs by Regularized Latent Optimization [79.00740660219256]
本稿では,事前学習したGANを効果的かつシームレスに拡張できる,エミュレーティブモデル推論と呼ばれる汎用フレームワークを提案する。
我々の基本的な考え方は、ワッサーシュタイン勾配流法を用いて与えられた要求に対する最適潜時分布を効率的に推算することである。
論文 参考訳(メタデータ) (2021-12-07T05:22:50Z) - InAugment: Improving Classifiers via Internal Augmentation [14.281619356571724]
本稿では,画像内部統計を活用した新しい拡張操作を提案する。
最先端の増補技術による改善を示す。
また,imagenetデータセット上では,resnet50 と efficientnet-b3 top-1 の精度も向上している。
論文 参考訳(メタデータ) (2021-04-08T15:37:21Z) - FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning [64.32306537419498]
本稿では,複雑な変換を多様に生成する特徴量に基づく改良・拡張手法を提案する。
これらの変換は、クラスタリングを通じて抽出したクラス内およびクラス間の両方の情報も利用します。
提案手法は,大規模データセットにスケールアップしながら,より小さなデータセットに対して,現在の最先端技術に匹敵するものであることを実証する。
論文 参考訳(メタデータ) (2020-07-16T17:55:31Z) - Image Augmentations for GAN Training [57.65145659417266]
我々は,バニラGANとGANの両方のイメージを正規化して拡張する方法に関する洞察とガイドラインを提供する。
意外なことに、Vanilla GANsは、最近の最先端の結果と同等の世代品質を実現している。
論文 参考訳(メタデータ) (2020-06-04T00:16:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。