論文の概要: Soft Augmentation for Image Classification
- arxiv url: http://arxiv.org/abs/2211.04625v2
- Date: Tue, 23 Jan 2024 21:24:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 18:16:49.787739
- Title: Soft Augmentation for Image Classification
- Title(参考訳): 画像分類のためのソフト強化
- Authors: Yang Liu, Shen Yan, Laura Leal-Taix\'e, James Hays, Deva Ramanan
- Abstract要約: 本稿では,変分変換による拡張の一般化とソフト拡張を提案する。
ソフトターゲットは、より攻撃的なデータ拡張を可能にすることを示す。
また,ソフト拡張が自己教師付き分類タスクに一般化されることも示している。
- 参考スコア(独自算出の注目度): 68.71067594724663
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern neural networks are over-parameterized and thus rely on strong
regularization such as data augmentation and weight decay to reduce overfitting
and improve generalization. The dominant form of data augmentation applies
invariant transforms, where the learning target of a sample is invariant to the
transform applied to that sample. We draw inspiration from human visual
classification studies and propose generalizing augmentation with invariant
transforms to soft augmentation where the learning target softens non-linearly
as a function of the degree of the transform applied to the sample: e.g., more
aggressive image crop augmentations produce less confident learning targets. We
demonstrate that soft targets allow for more aggressive data augmentation,
offer more robust performance boosts, work with other augmentation policies,
and interestingly, produce better calibrated models (since they are trained to
be less confident on aggressively cropped/occluded examples). Combined with
existing aggressive augmentation strategies, soft target 1) doubles the top-1
accuracy boost across Cifar-10, Cifar-100, ImageNet-1K, and ImageNet-V2, 2)
improves model occlusion performance by up to $4\times$, and 3) halves the
expected calibration error (ECE). Finally, we show that soft augmentation
generalizes to self-supervised classification tasks. Code available at
https://github.com/youngleox/soft_augmentation
- Abstract(参考訳): 現代のニューラルネットワークは過パラメータであり、データの強化や重みの減衰といった強力な正規化に依存し、過剰フィッティングを減らし、一般化を改善する。
データ拡張の主流形態は不変変換を適用し、サンプルの学習対象はそのサンプルに適用された変換に不変である。
本研究では,人間の視覚分類研究から着想を得て,不変変換による増補をソフト増補へ一般化し,学習対象が標本に適用された変換の度合の関数として非線形に軟化する手法を提案する。
私たちは、ソフトターゲットがより積極的なデータ拡張を可能にし、より堅牢なパフォーマンス向上を提供し、他の拡張ポリシーと連携し、より優れたキャリブレーションモデルを生成することを実証しています。
既存の攻撃的増進戦略 ソフトターゲットと組み合わさって
1) cifar-10, cifar-100, imagenet-1k, imagenet-v2におけるtop-1の精度向上。
2)モデルのオクルージョン性能を最大$4\times$で改善し、
3) 期待校正誤差(ECE)を半減する。
最後に,ソフト拡張が自己教師付き分類タスクに一般化されることを示す。
https://github.com/youngleox/soft_augmentationで利用可能なコード
関連論文リスト
- Fourier-basis Functions to Bridge Augmentation Gap: Rethinking Frequency
Augmentation in Image Classification [3.129187821625805]
AFA(Auxiliary Fourier-Basis Augmentation)は、周波数領域の増大を狙った技法であり、視覚的な拡張によって残された拡張ギャップを埋めるものである。
以上の結果から,AFAは,一般的な汚職に対するモデルの堅牢性,OODの一般化,モデルの性能の整合性,摂動の増大に対するモデルの性能の整合性,モデルの標準性能に対する無視的欠陥に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-03-04T11:30:02Z) - DualAug: Exploiting Additional Heavy Augmentation with OOD Data
Rejection [77.6648187359111]
そこで本稿では,textbfDualAug という新しいデータ拡張手法を提案する。
教師付き画像分類ベンチマークの実験では、DualAugは様々な自動データ拡張法を改善している。
論文 参考訳(メタデータ) (2023-10-12T08:55:10Z) - SAGE: Saliency-Guided Mixup with Optimal Rearrangements [22.112463794733188]
最適リアレンジメント(SAGE)を用いたサリエンシ誘導混合
SAGEは、ビジュアル・サリエンシをガイダンスとして、イメージペアを並べ替え、混合することで、新しいトレーニング例を作成する。
我々は, CIFAR-10 と CIFAR-100 について, SAGE がより効率的でありながら, より優れた性能と同等の性能を達成できることを実証した。
論文 参考訳(メタデータ) (2022-10-31T19:45:21Z) - Masked Autoencoders are Robust Data Augmentors [90.34825840657774]
ディープニューラルネットワークの一般化には、画像拡張のような正規化技術が必要である。
本稿では,トレーニングプロセスの正規化に向けて,新たな拡張の視点を提案する。
このようなモデルに基づく非線形変換をデータ拡張として活用することで,高レベルの認識タスクを向上できることを示す。
論文 参考訳(メタデータ) (2022-06-10T02:41:48Z) - Improving Model Generalization by Agreement of Learned Representations
from Data Augmentation [19.286766429954174]
コンピュータビジョンでは、CutOut、MixUp、CutMixといったデータ拡張技術が最先端(SOTA)の結果を示した。
我々は提案したメソッド合意の最大化あるいは単にAgMaxと呼ぶ。
我々は、AgMaxがデータ拡張の利点を生かし、モデル一般化を大幅なマージンで継続的に改善できることを示します。
論文 参考訳(メタデータ) (2021-10-20T12:44:52Z) - Augmentation Pathways Network for Visual Recognition [61.33084317147437]
本稿では,より広範な拡張ポリシーのトレーニングを安定させるために,Augmentation Pathways (AP)を導入している。
APは、重いデータ拡張をテーパーし、拡張ポリシーの慎重に選択することなく、安定してパフォーマンスを向上させる。
ImageNetベンチマークの実験結果は、より広い範囲の拡張における互換性と有効性を示している。
論文 参考訳(メタデータ) (2021-07-26T06:54:53Z) - When Vision Transformers Outperform ResNets without Pretraining or
Strong Data Augmentations [111.44860506703307]
Vision Transformer (ViTs) と既存のVisionNetsは、ハンドワイヤ機能やインダクティブスループットを汎用神経アーキテクチャに置き換えようとしている。
本稿では、損失幾何学のレンズからViTとRes-Mixersを解析し、トレーニングおよび推論時のモデルのデータ効率を改善することを目的とする。
最初の数層では、スペーサー活動ニューロンの頑健性が改善していることが示されている。
その結果、ViTsは、大規模な事前トレーニングや強力なデータ拡張なしに、ImageNet上でスクラッチからトレーニングした時に、同様のサイズと滑らかさのネットより優れています。
論文 参考訳(メタデータ) (2021-06-03T02:08:03Z) - InAugment: Improving Classifiers via Internal Augmentation [14.281619356571724]
本稿では,画像内部統計を活用した新しい拡張操作を提案する。
最先端の増補技術による改善を示す。
また,imagenetデータセット上では,resnet50 と efficientnet-b3 top-1 の精度も向上している。
論文 参考訳(メタデータ) (2021-04-08T15:37:21Z) - Reweighting Augmented Samples by Minimizing the Maximal Expected Loss [51.2791895511333]
我々は,拡張標本の任意の重み付け損失に対する上限となる最大期待損失を構成する。
敵の訓練に触発されて、この最大期待損失を最小化し、単純で解釈可能なクローズドフォームソリューションを得る。
提案手法は, 一般に任意のデータ拡張法上に適用可能である。
論文 参考訳(メタデータ) (2021-03-16T09:31:04Z) - On the Generalization Effects of Linear Transformations in Data
Augmentation [32.01435459892255]
データ拡張は、画像やテキストの分類タスクのようなアプリケーションのパフォーマンスを改善するための強力な技術である。
我々は線形変換の族を研究し、過度にパラメータ化された線形回帰設定におけるリッジ推定器への影響について研究する。
本稿では,モデルが変換データに対してどの程度不確実であるかによって,変換空間を探索する拡張手法を提案する。
論文 参考訳(メタデータ) (2020-05-02T04:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。