論文の概要: Beyond Cropping and Rotation: Automated Evolution of Powerful Task-Specific Augmentations with Generative Models
- arxiv url: http://arxiv.org/abs/2602.03123v1
- Date: Tue, 03 Feb 2026 05:29:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.260556
- Title: Beyond Cropping and Rotation: Automated Evolution of Powerful Task-Specific Augmentations with Generative Models
- Title(参考訳): クロップと回転を超えて: 生成モデルによる強力なタスク特異的拡張の自動進化
- Authors: Judah Goldfeder, Shreyes Kaliyur, Vaibhav Sourirajan, Patrick Minwan Puma, Philippe Martin Wyder, Yuhang Hu, Jiong Lin, Hod Lipson,
- Abstract要約: 条件拡散や数発のNeRFなどの生成モデルの最近の進歩は、データ拡張のための新しいパラダイムを提供する。
これらの手法は, 頑健性を高めるとともに, 改善が不十分な場合のリスク劣化性能も向上させる。
本稿では、これらの生成モデルと効率的な進化アルゴリズムを併用した自動拡張学習パイプラインであるEvoAugを提案する。
- 参考スコア(独自算出の注目度): 5.697451038954544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data augmentation has long been a cornerstone for reducing overfitting in vision models, with methods like AutoAugment automating the design of task-specific augmentations. Recent advances in generative models, such as conditional diffusion and few-shot NeRFs, offer a new paradigm for data augmentation by synthesizing data with significantly greater diversity and realism. However, unlike traditional augmentations like cropping or rotation, these methods introduce substantial changes that enhance robustness but also risk degrading performance if the augmentations are poorly matched to the task. In this work, we present EvoAug, an automated augmentation learning pipeline, which leverages these generative models alongside an efficient evolutionary algorithm to learn optimal task-specific augmentations. Our pipeline introduces a novel approach to image augmentation that learns stochastic augmentation trees that hierarchically compose augmentations, enabling more structured and adaptive transformations. We demonstrate strong performance across fine-grained classification and few-shot learning tasks. Notably, our pipeline discovers augmentations that align with domain knowledge, even in low-data settings. These results highlight the potential of learned generative augmentations, unlocking new possibilities for robust model training.
- Abstract(参考訳): データ拡張は、タスク固有の拡張設計を自動化するAutoAugmentのような方法によって、ビジョンモデルにおける過度な適合を減らすための基盤として長い間存在してきた。
条件拡散や数発のNeRFなどの生成モデルの最近の進歩は、多様性とリアリズムを著しく大きくしたデータ合成によるデータ拡張のための新しいパラダイムを提供する。
しかし、収穫や回転のような従来の強化とは違い、これらの手法は頑丈さを向上すると同時に、強化が作業に適さない場合のリスク劣化性能も向上させるような実質的な変化をもたらす。
本研究では、これらの生成モデルと効率的な進化アルゴリズムを併用し、タスク固有の拡張を最適に学習する自動拡張学習パイプラインであるEvoAugを提案する。
我々のパイプラインは、階層的に拡大を構成する確率的増木を学習し、より構造化され適応的な変換を可能にする、画像増木に対する新しいアプローチを導入している。
きめ細かな分類と数発の学習課題にまたがって強い性能を示す。
特に、私たちのパイプラインは、低データ設定であっても、ドメイン知識と整合した拡張を発見します。
これらの結果は、学習した生成的拡張の可能性を強調し、堅牢なモデルトレーニングのための新しい可能性を開く。
関連論文リスト
- SAFLEX: Self-Adaptive Augmentation via Feature Label Extrapolation [29.598247232905283]
本稿では,既存の拡張戦略と新たなデータセットと学習タスクのギャップを効果的に埋める,データ拡張のための新しい効率的な方法を提案する。
我々の発見は、既存の拡張パイプラインを新しいデータタイプとタスクに適用する可能性を強調し、より適応性がありレジリエントなトレーニングフレームワークへの移行を示唆している。
論文 参考訳(メタデータ) (2024-10-03T14:21:49Z) - A Simple Background Augmentation Method for Object Detection with Diffusion Model [53.32935683257045]
コンピュータビジョンでは、データの多様性の欠如がモデル性能を損なうことはよく知られている。
本稿では, 生成モデルの進歩を生かして, 単純かつ効果的なデータ拡張手法を提案する。
背景強化は、特にモデルの堅牢性と一般化能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-08-01T07:40:00Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - DualAug: Exploiting Additional Heavy Augmentation with OOD Data
Rejection [77.6648187359111]
そこで本稿では,textbfDualAug という新しいデータ拡張手法を提案する。
教師付き画像分類ベンチマークの実験では、DualAugは様々な自動データ拡張法を改善している。
論文 参考訳(メタデータ) (2023-10-12T08:55:10Z) - Alternating Updates for Efficient Transformers [16.776162039115814]
AltUp(AltUp)は、計算負担を伴わずにモデルの容量を増大させるシンプルな実装方法である。
ベンチマークトランスモデルと言語タスクに関する実験は、AltUpの一貫性のある有効性を示している。
論文 参考訳(メタデータ) (2023-01-30T22:06:05Z) - Local Magnification for Data and Feature Augmentation [53.04028225837681]
LOMA(Local Magnification)と呼ばれる,実装が容易かつモデルフリーなデータ拡張手法を提案する。
LOMAは、画像の局所領域をランダムに拡大することにより、追加のトレーニングデータを生成する。
実験の結果,提案するLOMAと標準データ拡張を組み合わせることで,画像分類や物体検出の性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-11-15T02:51:59Z) - Soft Augmentation for Image Classification [68.71067594724663]
本稿では,変分変換による拡張の一般化とソフト拡張を提案する。
ソフトターゲットは、より攻撃的なデータ拡張を可能にすることを示す。
また,ソフト拡張が自己教師付き分類タスクに一般化されることも示している。
論文 参考訳(メタデータ) (2022-11-09T01:04:06Z) - Masked Autoencoders are Robust Data Augmentors [9.819398274610933]
本稿では,トレーニングプロセスの正規化に向けて,新たな拡張の視点を提案する。
マスク付き画像モデリングを自己教師付き学習に適用した最近の成功に触発され、自己教師付きマスク付きオートエンコーダを採用した。
このようなモデルに基づく非線形変換をデータ拡張として活用することで,高レベルの認識タスクを向上できることを示す。
論文 参考訳(メタデータ) (2022-06-10T02:41:48Z) - TeachAugment: Data Augmentation Optimization Using Teacher Knowledge [11.696069523681178]
本稿では,TeachAugment と呼ばれる逆戦略に基づくデータ拡張最適化手法を提案する。
画像分類,セマンティックセグメンテーション,教師なし表現学習において,TeachAugmentは既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-25T06:22:51Z) - Efficient Feature Transformations for Discriminative and Generative
Continual Learning [98.10425163678082]
継続的学習のための簡易タスク特化機能マップ変換戦略を提案する。
これらは新しいタスクを学習するための強力な柔軟性を提供し、ベースアーキテクチャに最小パラメータを追加することで実現される。
本手法の有効性と効率を,判別(cifar-100およびimagenet-1k)および生成的タスクの一連の実験を用いて実証する。
論文 参考訳(メタデータ) (2021-03-25T01:48:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。