論文の概要: You Only Cut Once: Boosting Data Augmentation with a Single Cut
- arxiv url: http://arxiv.org/abs/2201.12078v1
- Date: Fri, 28 Jan 2022 12:34:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-31 14:30:42.628335
- Title: You Only Cut Once: Boosting Data Augmentation with a Single Cut
- Title(参考訳): 一度だけカットする: 1回のカットでデータ拡張を増やす
- Authors: Junlin Han, Pengfei Fang, Weihao Li, Jie Hong, Mohammad Ali Armin, Ian
Reid, Lars Petersson, Hongdong Li
- Abstract要約: データ拡張を行うために、You Only Cut Once (YOCO)を提示する。
YOCOは1つの画像を2つのピースに分割し、各ピース内で個別にデータ拡張を行う。
YOCOを適用することで、サンプルあたりの増補の多様性が向上し、ニューラルネットワークが部分的な情報からオブジェクトを認識することを奨励する。
- 参考スコア(独自算出の注目度): 85.90978190685837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present You Only Cut Once (YOCO) for performing data augmentations. YOCO
cuts one image into two pieces and performs data augmentations individually
within each piece. Applying YOCO improves the diversity of the augmentation per
sample and encourages neural networks to recognize objects from partial
information. YOCO enjoys the properties of parameter-free, easy usage, and
boosting almost all augmentations for free. Thorough experiments are conducted
to evaluate its effectiveness. We first demonstrate that YOCO can be seamlessly
applied to varying data augmentations, neural network architectures, and brings
performance gains on CIFAR and ImageNet classification tasks, sometimes
surpassing conventional image-level augmentation by large margins. Moreover, we
show YOCO benefits contrastive pre-training toward a more powerful
representation that can be better transferred to multiple downstream tasks.
Finally, we study a number of variants of YOCO and empirically analyze the
performance for respective settings. Code is available at GitHub.
- Abstract(参考訳): データ拡張を行うためのYOCO(You Only Cut Once)を提案する。
YOCOは1つの画像を2つのピースに分割し、各ピース内で個別にデータ拡張を行う。
YOCOを適用することで、サンプルあたりの増補の多様性が向上し、ニューラルネットワークが部分的な情報からオブジェクトを認識することを奨励する。
YOCOはパラメータフリーで使いやすく、ほとんどすべての拡張を無償で行うことができる。
その効果を評価するために徹底的な実験が行われている。
我々はまず、YOCOが様々なデータ拡張、ニューラルネットワークアーキテクチャにシームレスに適用できることを実証し、CIFARとImageNetの分類タスクのパフォーマンス向上をもたらし、時には従来の画像レベルの拡張よりも大きなマージンを上回ります。
さらに,複数のダウンストリームタスクにより良い転送が可能な,より強力な表現に向けて,YOCOによる事前学習の対照的なメリットを示す。
最後に、複数のYOCOの変種を調査し、各設定の性能を実証的に分析する。
コードはGitHubで入手できる。
関連論文リスト
- You Only Need Half: Boosting Data Augmentation by Using Partial Content [5.611768906855499]
YONA(You Only Need hAllf)と呼ばれる新しいデータ拡張手法を提案する。
ヨナは画像を2分し、半分をノイズで置き換え、残りの半分にデータ拡張技術を適用する。
この方法では、元の画像の冗長な情報を低減し、ニューラルネットワークが不完全なビューからオブジェクトを認識することを奨励し、ニューラルネットワークの堅牢性を大幅に向上する。
論文 参考訳(メタデータ) (2024-05-05T06:57:40Z) - Premier-TACO is a Few-Shot Policy Learner: Pretraining Multitask Representation via Temporal Action-Driven Contrastive Loss [61.355272240758]
Premier-TACOはマルチタスクの特徴表現学習手法である。
シーケンシャルな意思決定タスクにおいて、数ショットのポリシー学習効率を改善するように設計されている。
論文 参考訳(メタデータ) (2024-02-09T05:04:40Z) - Soft Augmentation for Image Classification [68.71067594724663]
本稿では,変分変換による拡張の一般化とソフト拡張を提案する。
ソフトターゲットは、より攻撃的なデータ拡張を可能にすることを示す。
また,ソフト拡張が自己教師付き分類タスクに一般化されることも示している。
論文 参考訳(メタデータ) (2022-11-09T01:04:06Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - Solar Potential Assessment using Multi-Class Buildings Segmentation from
Aerial Images [3.180674374101366]
出力に余分なクラスを追加することで、インスタンスセグメンテーションタスクに対して完全な畳み込みニューラルネットワークのパワーを利用する。
また,CutMix混合データ拡張とOne-Cycle学習率ポリシが,トレーニングデータに適合するより優れた正規化手法であることを示す。
論文 参考訳(メタデータ) (2021-11-22T18:16:07Z) - Augmentation Pathways Network for Visual Recognition [61.33084317147437]
本稿では,より広範な拡張ポリシーのトレーニングを安定させるために,Augmentation Pathways (AP)を導入している。
APは、重いデータ拡張をテーパーし、拡張ポリシーの慎重に選択することなく、安定してパフォーマンスを向上させる。
ImageNetベンチマークの実験結果は、より広い範囲の拡張における互換性と有効性を示している。
論文 参考訳(メタデータ) (2021-07-26T06:54:53Z) - Hierarchical Self-Supervised Learning for Medical Image Segmentation
Based on Multi-Domain Data Aggregation [23.616336382437275]
医用画像分割のための階層型自己監督学習(HSSL)を提案する。
まず、いくつかの医学的課題からデータセットを収集し、自己教師付きでネットワークを事前訓練し、最後にラベル付きデータに微調整します。
スクラッチから学習するのに比べ、新しい手法は様々なタスクにおいてより良いパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2021-07-10T18:17:57Z) - Dataset Condensation with Differentiable Siamese Augmentation [30.571335208276246]
大規模トレーニングセットを,ディープニューラルネットワークのトレーニングに使用可能な,はるかに小さな合成セットに集約することに注力する。
より有益な合成画像の合成にデータ拡張を有効活用できる微分可能なSiamese Augmentationを提案する。
本手法がMNIST, FashionMNIST, SVHN, CIFAR10に対して99.6%, 94.9%, 88.5%, 71.5%の相対的性能をそれぞれ達成していることを1%未満のデータで示した。
論文 参考訳(メタデータ) (2021-02-16T16:32:21Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。