論文の概要: Augmentation Pathways Network for Visual Recognition
- arxiv url: http://arxiv.org/abs/2107.11990v1
- Date: Mon, 26 Jul 2021 06:54:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 16:03:16.556974
- Title: Augmentation Pathways Network for Visual Recognition
- Title(参考訳): 視覚認識のための増強経路ネットワーク
- Authors: Yalong Bai, Mohan Zhou, Yuxiang Chen, Wei Zhang, Bowen Zhou, Tao Mei
- Abstract要約: 本稿では,より広範な拡張ポリシーのトレーニングを安定させるために,Augmentation Pathways (AP)を導入している。
APは、重いデータ拡張をテーパーし、拡張ポリシーの慎重に選択することなく、安定してパフォーマンスを向上させる。
ImageNetベンチマークの実験結果は、より広い範囲の拡張における互換性と有効性を示している。
- 参考スコア(独自算出の注目度): 61.33084317147437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation is practically helpful for visual recognition, especially
at the time of data scarcity. However, such success is only limited to quite a
few light augmentations (e.g., random crop, flip). Heavy augmentations (e.g.,
gray, grid shuffle) are either unstable or show adverse effects during
training, owing to the big gap between the original and augmented images. This
paper introduces a novel network design, noted as Augmentation Pathways (AP),
to systematically stabilize training on a much wider range of augmentation
policies. Notably, AP tames heavy data augmentations and stably boosts
performance without a careful selection among augmentation policies. Unlike
traditional single pathway, augmented images are processed in different neural
paths. The main pathway handles light augmentations, while other pathways focus
on heavy augmentations. By interacting with multiple paths in a dependent
manner, the backbone network robustly learns from shared visual patterns among
augmentations, and suppresses noisy patterns at the same time. Furthermore, we
extend AP to a homogeneous version and a heterogeneous version for high-order
scenarios, demonstrating its robustness and flexibility in practical usage.
Experimental results on ImageNet benchmarks demonstrate the compatibility and
effectiveness on a much wider range of augmentations (e.g., Crop, Gray, Grid
Shuffle, RandAugment), while consuming fewer parameters and lower computational
costs at inference time. Source code:https://github.com/ap-conv/ap-net.
- Abstract(参考訳): データ拡張は、特にデータ不足時の視覚的認識に実質的に有用である。
しかし、このような成功は、ごく少数の光増量(例えば、ランダムな作物、フリップ)に限られる。
重い増強(グレー、グリッドシャッフルなど)は、元の画像と強化画像の間に大きなギャップがあるため、トレーニング中に不安定または悪影響を及ぼす。
本稿では,より広い範囲の強化政策におけるトレーニングを体系的に安定化する新しいネットワーク設計法について紹介する。
注目すべきは、APは重いデータ拡張をテーパーし、拡張ポリシーの慎重に選択することなく、安定してパフォーマンスを向上させることである。
従来の単一経路とは異なり、強調画像は異なる神経経路で処理される。
主経路は光増強を扱うが、他の経路は重増強に焦点を合わせている。
複数の経路を依存的に相互作用させることにより、バックボーンネットワークは増補間の共有視覚パターンから頑健に学習し、同時にノイズパターンを抑制する。
さらに,apを均質なバージョンと,高次シナリオのための異質なバージョンに拡張し,その堅牢性と実用性を示す。
ImageNetベンチマークの実験結果は、より広範な拡張(例えば、Crop、Gray、Grid Shuffle、RandAugment)における互換性と有効性を示しながら、推論時に少ないパラメータを消費し、計算コストを低減している。
ソースコード:https://github.com/ap-conv/ap-net
関連論文リスト
- Fourier-basis Functions to Bridge Augmentation Gap: Rethinking Frequency
Augmentation in Image Classification [3.129187821625805]
AFA(Auxiliary Fourier-Basis Augmentation)は、周波数領域の増大を狙った技法であり、視覚的な拡張によって残された拡張ギャップを埋めるものである。
以上の結果から,AFAは,一般的な汚職に対するモデルの堅牢性,OODの一般化,モデルの性能の整合性,摂動の増大に対するモデルの性能の整合性,モデルの標準性能に対する無視的欠陥に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-03-04T11:30:02Z) - Boosting Semi-Supervised 2D Human Pose Estimation by Revisiting Data
Augmentation and Consistency Training [25.02026393037821]
SSHPEは、高度なデータ拡張と簡潔な一貫性のトレーニング方法という、2つのコアから強化できることがわかった。
本稿では,多彩なハード拡張を伴うラベルなし画像の繰り返し拡大と,連続的にマルチパス予測を生成することを提案する。
提案手法は,SOTA手法と比較して,公開データセットに大幅な改善をもたらす。
論文 参考訳(メタデータ) (2024-02-18T12:27:59Z) - Soft Augmentation for Image Classification [68.71067594724663]
本稿では,変分変換による拡張の一般化とソフト拡張を提案する。
ソフトターゲットは、より攻撃的なデータ拡張を可能にすることを示す。
また,ソフト拡張が自己教師付き分類タスクに一般化されることも示している。
論文 参考訳(メタデータ) (2022-11-09T01:04:06Z) - Masked Autoencoders are Robust Data Augmentors [90.34825840657774]
ディープニューラルネットワークの一般化には、画像拡張のような正規化技術が必要である。
本稿では,トレーニングプロセスの正規化に向けて,新たな拡張の視点を提案する。
このようなモデルに基づく非線形変換をデータ拡張として活用することで,高レベルの認識タスクを向上できることを示す。
論文 参考訳(メタデータ) (2022-06-10T02:41:48Z) - MSR: Making Self-supervised learning Robust to Aggressive Augmentations [98.6457801252358]
本稿では,弱いペアと攻撃的なペアの役割のバランスをとることによって,意味変化の影響に対処する新たなSSLパラダイムを提案する。
我々は,BYOLを2.5%改善したResNet-50を200エポックとして,ImageNet-1Kで73.1%のTop-1精度を実現したことを示す。
論文 参考訳(メタデータ) (2022-06-04T14:27:29Z) - Improving Transferability of Representations via Augmentation-Aware
Self-Supervision [117.15012005163322]
AugSelfは、ランダムに強化された2つのサンプル間の拡張パラメータの違いを学習する補助的な自己教師型損失である。
私たちの直感は、AugSelfが学習表現における拡張認識情報の保存を奨励していることです。
AugSelfは、最新の最先端の表現学習手法に、無視できる追加のトレーニングコストで簡単に組み込むことができる。
論文 参考訳(メタデータ) (2021-11-18T10:43:50Z) - Contrastive Learning with Stronger Augmentations [63.42057690741711]
本論文では,現在のコントラスト学習のアプローチを補完する,より強い拡張(A)によるコントラスト学習という汎用フレームワークを提案する。
ここでは、表現バンク上の弱強調画像と強拡張画像との間の分布のばらつきを利用して、強拡張クエリの検索を監督する。
実験では、強力な画像からの情報により、パフォーマンスが大幅に向上します。
論文 参考訳(メタデータ) (2021-04-15T18:40:04Z) - InAugment: Improving Classifiers via Internal Augmentation [14.281619356571724]
本稿では,画像内部統計を活用した新しい拡張操作を提案する。
最先端の増補技術による改善を示す。
また,imagenetデータセット上では,resnet50 と efficientnet-b3 top-1 の精度も向上している。
論文 参考訳(メタデータ) (2021-04-08T15:37:21Z) - MetaAugment: Sample-Aware Data Augmentation Policy Learning [20.988767360529362]
我々は、サンプル再重み付け問題として定式化することで、サンプル認識データ拡張ポリシーを効率的に学習する。
拡張ポリシーネットワークは、変換と対応する拡張画像とを入力とし、重みを出力してタスクネットワークで計算された拡張画像損失を調整する。
トレーニング段階では、タスクネットワークは強化訓練画像の重み付け損失を最小限に抑え、ポリシーネットワークはメタラーニングによる検証セット上のタスクネットワークの損失を最小限にする。
論文 参考訳(メタデータ) (2020-12-22T15:19:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。