論文の概要: When to Learn What: Model-Adaptive Data Augmentation Curriculum
- arxiv url: http://arxiv.org/abs/2309.04747v2
- Date: Sat, 30 Sep 2023 06:14:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 07:21:15.321598
- Title: When to Learn What: Model-Adaptive Data Augmentation Curriculum
- Title(参考訳): 何を学ぶか:モデル適応型データ拡張カリキュラム
- Authors: Chengkai Hou, Jieyu Zhang, Tianyi Zhou
- Abstract要約: 本稿では,モデル適応型データ拡張(MADAug)を提案する。
従来の作業とは異なり、MADAugはトレーニング段階によって異なるモデル適応ポリシーにより、各入力画像に対する拡張演算子を選択し、より良い一般化のために最適化されたデータ拡張カリキュラムを生成する。
- 参考スコア(独自算出の注目度): 32.99634881669643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data augmentation (DA) is widely used to improve the generalization of neural
networks by enforcing the invariances and symmetries to pre-defined
transformations applied to input data. However, a fixed augmentation policy may
have different effects on each sample in different training stages but existing
approaches cannot adjust the policy to be adaptive to each sample and the
training model. In this paper, we propose Model Adaptive Data Augmentation
(MADAug) that jointly trains an augmentation policy network to teach the model
when to learn what. Unlike previous work, MADAug selects augmentation operators
for each input image by a model-adaptive policy varying between training
stages, producing a data augmentation curriculum optimized for better
generalization. In MADAug, we train the policy through a bi-level optimization
scheme, which aims to minimize a validation-set loss of a model trained using
the policy-produced data augmentations. We conduct an extensive evaluation of
MADAug on multiple image classification tasks and network architectures with
thorough comparisons to existing DA approaches. MADAug outperforms or is on par
with other baselines and exhibits better fairness: it brings improvement to all
classes and more to the difficult ones. Moreover, MADAug learned policy shows
better performance when transferred to fine-grained datasets. In addition, the
auto-optimized policy in MADAug gradually introduces increasing perturbations
and naturally forms an easy-to-hard curriculum.
- Abstract(参考訳): データ拡張(DA)は、入力データに適用された事前定義された変換に不変性と対称性を強制することにより、ニューラルネットワークの一般化を改善するために広く用いられている。
しかし, 定式化政策は, 異なる訓練段階における各試料に異なる効果を与える可能性があるが, 既存のアプローチでは各試料と訓練モデルに適応する政策を調整できない。
本稿では,モデル適応型データ拡張(madaug, model adaptive data enhancementation)を提案する。
以前の作業とは異なり、madaugはトレーニング段階によって異なるモデル適応ポリシーによって入力画像ごとに拡張演算子を選択し、より良い一般化のために最適化されたデータ拡張カリキュラムを生成する。
MADAugでは、ポリシー生成データ拡張を用いてトレーニングされたモデルの検証セット損失を最小限に抑えるために、二段階最適化方式を用いてポリシーを訓練する。
既存のDA手法と比較して,複数の画像分類タスクやネットワークアーキテクチャ上でMADAugを広範囲に評価する。
madaugは他のベースラインよりも優れており、より公平である。すべてのクラスに改善をもたらし、難しいクラスにも改善をもたらす。
さらに、MADAugの学習ポリシーは、きめ細かいデータセットに転送すると、より良いパフォーマンスを示す。
さらに、MADAugにおける自動最適化政策は、徐々に摂動の増大を導入し、自然に難しいカリキュラムを形成している。
関連論文リスト
- AdaAugment: A Tuning-Free and Adaptive Approach to Enhance Data Augmentation [12.697608744311122]
AdaAugmentは、チューニング不要なAdaptive Augmentationメソッドである。
対象ネットワークからのリアルタイムフィードバックに基づいて、個別のトレーニングサンプルの増大度を動的に調整する。
優れた効率を保ちながら、他の最先端のDAメソッドの効率を一貫して上回ります。
論文 参考訳(メタデータ) (2024-05-19T06:54:03Z) - Genetic Learning for Designing Sim-to-Real Data Augmentations [1.03590082373586]
データ拡張は、合成データのトレーニングにおいて、sim-to-realドメインギャップを閉じるのに有用である。
多くの画像増強技術があり、強度や確率などの異なる設定でパラメータ化されている。
本稿では、特定のsim-to-real設定に対して、ある拡張ポリシーがどの程度うまく機能するかを予測するために、組み合わせられる2つの異なる解釈可能な指標を提案する。
論文 参考訳(メタデータ) (2024-03-11T15:00:56Z) - Learning to Augment via Implicit Differentiation for Domain
Generalization [107.9666735637355]
ドメイン一般化(DG)は、複数のソースドメインを活用してドメイン一般化可能なモデルを学ぶことで、この問題を克服することを目的としている。
本稿では,AugLearnと呼ばれる新しい拡張型DG手法を提案する。
AugLearnは、PACS、Office-Home、Digits-DGの3つの標準DGベンチマークで効果を示す。
論文 参考訳(メタデータ) (2022-10-25T18:51:51Z) - Augmentation Learning for Semi-Supervised Classification [13.519613713213277]
本稿では,特定のデータセットに対して最も効果的なデータ拡張ポリシーを自動選択する半教師付き学習手法を提案する。
ImageNet以外のデータセットへの拡張にポリシー学習をどのように適用できるかを示す。
論文 参考訳(メタデータ) (2022-08-03T10:06:51Z) - Universal Adaptive Data Augmentation [30.83891617679216]
UADA(Universal Adaptive Data Augmentation)は、新しいデータ拡張戦略である。
トレーニング中のデータバッチ毎に,DA操作のタイプとサイズをランダムに決定します。
UADAはターゲットモデルの勾配情報に従ってDAのパラメータを適応的に更新する。
論文 参考訳(メタデータ) (2022-07-14T05:05:43Z) - Latent-Variable Advantage-Weighted Policy Optimization for Offline RL [70.01851346635637]
オフラインの強化学習メソッドは、新しいトランジションを環境に問い合わせる必要なしに、事前にコンパイルされたデータセットから学習ポリシーを保証します。
実際には、オフラインデータセットは、しばしば異種、すなわち様々なシナリオで収集される。
より広範な政策分布を表現できる潜在変数ポリシーを活用することを提案する。
提案手法は,次回のオフライン強化学習法の性能を,異種データセット上で49%向上させる。
論文 参考訳(メタデータ) (2022-03-16T21:17:03Z) - CADDA: Class-wise Automatic Differentiable Data Augmentation for EEG
Signals [92.60744099084157]
本研究では、勾配に基づく学習に適した微分可能データ拡張を提案する。
本研究は,臨床関連睡眠ステージ分類課題におけるアプローチの意義を示す。
論文 参考訳(メタデータ) (2021-06-25T15:28:48Z) - ParticleAugment: Sampling-Based Data Augmentation [80.44268663372233]
モデルトレーニング中に最適な拡張ポリシーとスケジュールを求めるために,粒子フィルタリングの定式化を提案する。
CIFAR-10, CIFAR-100, ImageNetデータセットにおいて, 自動拡張のための定式化が有望な結果に達することを示す。
論文 参考訳(メタデータ) (2021-06-16T10:56:02Z) - Policy Learning with Adaptively Collected Data [22.839095992238537]
適応的に収集されたデータで最適な政策を学ぶという課題に対処します。
一般化された逆確率重み付き推定器に基づくアルゴリズムを提案する。
合成データと公開ベンチマークデータセットの両方を用いてアルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2021-05-05T22:03:10Z) - Learning Representational Invariances for Data-Efficient Action
Recognition [52.23716087656834]
我々は,データ拡張戦略により,Kinetics-100,UCF-101,HMDB-51データセットのパフォーマンスが期待できることを示す。
また,完全な教師付き設定でデータ拡張戦略を検証し,性能向上を実証した。
論文 参考訳(メタデータ) (2021-03-30T17:59:49Z) - CoDA: Contrast-enhanced and Diversity-promoting Data Augmentation for
Natural Language Understanding [67.61357003974153]
我々はCoDAと呼ばれる新しいデータ拡張フレームワークを提案する。
CoDAは、複数の変換を有機的に統合することで、多種多様な情報付加例を合成する。
すべてのデータサンプルのグローバルな関係を捉えるために、対照的な正則化の目的を導入する。
論文 参考訳(メタデータ) (2020-10-16T23:57:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。