論文の概要: SelectAugment: Hierarchical Deterministic Sample Selection for Data
Augmentation
- arxiv url: http://arxiv.org/abs/2112.02862v1
- Date: Mon, 6 Dec 2021 08:38:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 16:27:28.641626
- Title: SelectAugment: Hierarchical Deterministic Sample Selection for Data
Augmentation
- Title(参考訳): SelectAugment: データ拡張のための階層的決定論的サンプル選択
- Authors: Shiqi Lin, Zhizheng Zhang, Xin Li, Wenjun Zeng, Zhibo Chen
- Abstract要約: そこで我々は,SelectAugmentと呼ばれる効果的な手法を提案し,決定論的かつオンラインに拡張するサンプルを選択する。
具体的には、各バッチにおいて、まず増分比率を決定し、次にこの比で各トレーニングサンプルを増分するかを決定する。
これにより、サンプルを増量する際のランダム性による負の効果を効果的に軽減し、DAの有効性を向上させることができる。
- 参考スコア(独自算出の注目度): 72.58308581812149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation (DA) has been widely investigated to facilitate model
optimization in many tasks. However, in most cases, data augmentation is
randomly performed for each training sample with a certain probability, which
might incur content destruction and visual ambiguities. To eliminate this, in
this paper, we propose an effective approach, dubbed SelectAugment, to select
samples to be augmented in a deterministic and online manner based on the
sample contents and the network training status. Specifically, in each batch,
we first determine the augmentation ratio, and then decide whether to augment
each training sample under this ratio. We model this process as a two-step
Markov decision process and adopt Hierarchical Reinforcement Learning (HRL) to
learn the augmentation policy. In this way, the negative effects of the
randomness in selecting samples to augment can be effectively alleviated and
the effectiveness of DA is improved. Extensive experiments demonstrate that our
proposed SelectAugment can be adapted upon numerous commonly used DA methods,
e.g., Mixup, Cutmix, AutoAugment, etc, and improve their performance on
multiple benchmark datasets of image classification and fine-grained image
recognition.
- Abstract(参考訳): データ拡張(DA)は多くのタスクにおいてモデル最適化を容易にするために広く研究されている。
しかし、ほとんどの場合、トレーニングサンプルごとにランダムにデータ拡張が行われ、コンテンツの破壊と視覚的な曖昧さを引き起こす可能性がある。
これを排除するために,本論文では,サンプル内容とネットワークトレーニング状況に基づいて,提案するサンプルを決定的かつオンライン的に選択する,SelectAugmentと呼ばれる効果的なアプローチを提案する。
具体的には、各バッチにおいて、まず増分比率を決定し、次にこの比で各トレーニングサンプルを増分するかを決定する。
我々はこの過程を2段階のマルコフ決定プロセスとしてモデル化し,階層的強化学習(hrl)を用いて強化方針を学習する。
このようにして、増強するサンプル選択におけるランダム性の悪影響を効果的に軽減し、daの有効性を向上させることができる。
広範な実験により,提案手法は,ミックスアップ,カットミックス,オートオーグメントなど,多数の一般的なda手法に適応でき,画像分類や細粒度画像認識などのベンチマークデータセットの性能が向上することを示した。
関連論文リスト
- Diversified Batch Selection for Training Acceleration [68.67164304377732]
オンラインバッチ選択として知られる一般的な研究ラインでは、トレーニングプロセス中の情報サブセットの選択について検討している。
バニラ参照モデルフリーメソッドは、独立してデータをサンプリング的にスコア付けし、選択する。
DivBS(Diversified Batch Selection)を提案する。
論文 参考訳(メタデータ) (2024-06-07T12:12:20Z) - Data Pruning via Moving-one-Sample-out [61.45441981346064]
我々は移動1サンプルアウト(MoSo)と呼ばれる新しいデータ処理手法を提案する。
MoSoは、トレーニングセットから最も分かりにくいサンプルを特定し、削除することを目的としている。
実験結果から,MoSoは高プルーニング比で高い性能劣化を効果的に緩和することが示された。
論文 参考訳(メタデータ) (2023-10-23T08:00:03Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - ReSmooth: Detecting and Utilizing OOD Samples when Training with Data
Augmentation [57.38418881020046]
最近のDA技術は、常に強化トレーニングサンプルの多様性の必要性を満たす。
多様性の高い増分戦略は、通常、アウト・オブ・ディストリビューション(OOD)の増分サンプルを導入する。
ReSmoothは、まず、拡張サンプル中のOODサンプルを検知し、それらを活用するフレームワークである。
論文 参考訳(メタデータ) (2022-05-25T09:29:27Z) - Automatic Data Augmentation Selection and Parametrization in Contrastive
Self-Supervised Speech Representation Learning [21.423349835589793]
本研究では, 事前定義された値集合から, 拡張選択とそのパラメトリゼーションに関する適切な分布を自動的に選択できる条件付き独立性に基づく手法を提案する。
2つの異なる下流タスクで実施された実験は、拡張やベースライン拡張を伴わない実験よりも優れた結果を示す提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-04-08T16:30:50Z) - When Chosen Wisely, More Data Is What You Need: A Universal
Sample-Efficient Strategy For Data Augmentation [19.569164094496955]
両問題を克服するために,Glitterと呼ばれる汎用データ拡張(DA)技術を提案する。
Glitterは、敵DAに類似した最大損失を持つ最悪のサンプルのサブセットを適応的に選択する。
GLUEベンチマーク、SQuAD、HellaSwagの3つの広く使われているトレーニング設定実験により、Glitterはトレーニングが大幅に速く、競争性能が向上していることが明らかとなった。
論文 参考訳(メタデータ) (2022-03-17T15:33:52Z) - Self-paced Data Augmentation for Training Neural Networks [11.554821454921536]
本稿では,ニューラルネットワークをトレーニングする際のデータ拡張に適したサンプルを自動的に選択するセルフペース拡張を提案する。
提案手法は,非効率なデータ拡張による一般化性能の低下を緩和する。
実験結果から,SPAは,特にトレーニングサンプル数が少ない場合,一般化性能を向上できることが示された。
論文 参考訳(メタデータ) (2020-10-29T09:13:18Z) - Reinforced Data Sampling for Model Diversification [15.547681142342846]
本稿では,データを適切にサンプリングする方法を学ぶための新しいReinforced Data Smpling (RDS)法を提案する。
モデルダイバーシフィケーションの最適化問題である$delta-div$をデータサンプリングで定式化し,モデルダイバーシフィケーションを注入することで学習ポテンシャルと最適アロケーションを最大化する。
モデル多様化のためのトレーニング可能なサンプリングは,各種機械学習タスクの潜在能力を追求する競技組織,研究者,さらには開始者にとって有用であることが示唆された。
論文 参考訳(メタデータ) (2020-06-12T11:46:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。