論文の概要: RandMSAugment: A Mixed-Sample Augmentation for Limited-Data Scenarios
- arxiv url: http://arxiv.org/abs/2311.16508v1
- Date: Sat, 25 Nov 2023 18:07:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 20:02:35.407473
- Title: RandMSAugment: A Mixed-Sample Augmentation for Limited-Data Scenarios
- Title(参考訳): RandMSAugment: 限定データシナリオのための混合サンプル拡張
- Authors: Swarna Kamlam Ravindran and Carlo Tomasi
- Abstract要約: 我々はRandMSAugmentと呼ばれる新しい拡張手法を導入し、既存の手法の相補的な強みを統合する。
RandMSAugmentは、CIFAR-100、STL-10、Tiny-Imagenetの競合よりはるかに優れている。
- 参考スコア(独自算出の注目度): 3.018656336329545
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The high costs of annotating large datasets suggests a need for effectively
training CNNs with limited data, and data augmentation is a promising
direction. We study foundational augmentation techniques, including Mixed
Sample Data Augmentations (MSDAs) and a no-parameter variant of RandAugment
termed Preset-RandAugment, in the fully supervised scenario. We observe that
Preset-RandAugment excels in limited-data contexts while MSDAs are moderately
effective. We show that low-level feature transforms play a pivotal role in
this performance difference, postulate a new property of augmentations related
to their data efficiency, and propose new ways to measure the diversity and
realism of augmentations. Building on these insights, we introduce a novel
augmentation technique called RandMSAugment that integrates complementary
strengths of existing methods. RandMSAugment significantly outperforms the
competition on CIFAR-100, STL-10, and Tiny-Imagenet. With very small training
sets (4, 25, 100 samples/class), RandMSAugment achieves compelling performance
gains between 4.1% and 6.75%. Even with more training data (500 samples/class)
we improve performance by 1.03% to 2.47%. RandMSAugment does not require
hyperparameter tuning, extra validation data, or cumbersome optimizations.
- Abstract(参考訳): 大規模なデータセットにアノテートするコストが高いことは、限られたデータでcnnを効果的にトレーニングする必要があることを示唆している。
本研究では,Mixed Sample Data Augmentations (MSDAs) やRandAugment の非パラメータ変種 Preset-RandAugment などの基礎的拡張技術について,完全に教師されたシナリオで検討する。
我々は,MSDAが適度に有効であるのに対して,Preset-RandAugmentは限定データ文脈で優れていることを観察する。
この性能差において低レベルの特徴変換が重要な役割を担い、データ効率に関連する拡張の新たな特性を仮定し、拡張の多様性と現実性を測定する新しい方法を提案する。
これらの知見に基づいて,既存手法の相補的強みを統合したRandMSAugmentという新しい拡張手法を導入する。
RandMSAugmentは、CIFAR-100、STL-10、Tiny-Imagenetの競合よりはるかに優れている。
非常に小さなトレーニングセット(4, 25, 100 サンプル/クラス)で、RandMSAugmentは4.1%から6.75%の間で魅力的なパフォーマンス向上を実現している。
より多くのトレーニングデータ(500サンプル/クラス)であっても、パフォーマンスを1.03%から2.47%改善します。
RandMSAugmentはハイパーパラメータチューニング、追加のバリデーションデータ、面倒な最適化を必要としない。
関連論文リスト
- TLDR: Traffic Light Detection using Fourier Domain Adaptation in Hostile WeatheR [4.792412997390758]
本稿では、LISAとS2TLDという2つの広く使われているデータセットを組み合わせることで、新しいアプローチを提案する。
FDAは、この最終データセットで訓練されたモデルが雨と霧の天候に適応するのを助ける。
実験の結果、FDAが強化した画像で訓練したモデルは、FDAなしで訓練したモデルよりも優れていた。
論文 参考訳(メタデータ) (2024-11-12T16:15:25Z) - Ali-AUG: Innovative Approaches to Labeled Data Augmentation using One-Step Diffusion Model [0.14999444543328289]
Ali-AUGは、産業応用における効率的なラベル付きデータ拡張のための新しい単一ステップ拡散モデルである。
提案手法は, 正確な特徴挿入を伴う合成ラベル付き画像を生成することで, 限られたラベル付きデータの課題に対処する。
論文 参考訳(メタデータ) (2024-10-24T12:12:46Z) - Multi-scale Contrastive Adaptor Learning for Segmenting Anything in Underperformed Scenes [12.36950265154199]
本稿では, MCA-SAM という新しいマルチスケールコントラスト適応学習手法を提案する。
MCA-SAMはトークンレベルとサンプルレベルの両方で、巧妙に設計された対照的な学習フレームワークを通じて、アダプタのパフォーマンスを向上させる。
MCA-SAMは新しいベンチマークを設定し、既存の手法を3つの挑戦的な領域で上回る結果が得られた。
論文 参考訳(メタデータ) (2024-08-12T06:23:10Z) - DualAug: Exploiting Additional Heavy Augmentation with OOD Data
Rejection [77.6648187359111]
そこで本稿では,textbfDualAug という新しいデータ拡張手法を提案する。
教師付き画像分類ベンチマークの実験では、DualAugは様々な自動データ拡張法を改善している。
論文 参考訳(メタデータ) (2023-10-12T08:55:10Z) - Scaling Data Generation in Vision-and-Language Navigation [116.95534559103788]
本稿では,学習のための大規模データ生成に有効なパラダイムを提案する。
我々は、HM3DとGibsonのデータセットから1200以上のフォトリアリスティック環境を適用し、490万の命令軌道対を合成する。
我々の大規模データセットのおかげで、既存のエージェントの性能は(以前のSoTAでは+11%絶対)、単純な模倣学習によってR2Rテストの分割で80%の単ラン成功率で大幅に向上できる。
論文 参考訳(メタデータ) (2023-07-28T16:03:28Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Augmentation-Aware Self-Supervision for Data-Efficient GAN Training [68.81471633374393]
識別器が過度に適合する傾向があるため、限られたデータでGANを訓練することは困難である。
本稿では,拡張データの拡張パラメータを予測する,拡張型自己教師型識別器を提案する。
本稿では,クラス条件の BigGAN と非条件の StyleGAN2 アーキテクチャを用いた State-of-the-art (SOTA) 手法と比較する。
論文 参考訳(メタデータ) (2022-05-31T10:35:55Z) - Learning Representational Invariances for Data-Efficient Action
Recognition [52.23716087656834]
我々は,データ拡張戦略により,Kinetics-100,UCF-101,HMDB-51データセットのパフォーマンスが期待できることを示す。
また,完全な教師付き設定でデータ拡張戦略を検証し,性能向上を実証した。
論文 参考訳(メタデータ) (2021-03-30T17:59:49Z) - Simple is Better! Lightweight Data Augmentation for Low Resource Slot
Filling and Intent Classification [3.2996723916635267]
単語スパンと文レベルの操作を含む一連の拡張手法である軽量化により、データの不足が軽減されることを示す。
制限されたデータ設定の実験では、軽量化によりスロットフィリングの性能が大幅に向上することが示された。
軽量化は、BERTベースのジョイントインテントとスロットフィリングモデルを改善するため、事前訓練されたLMベースのモデルと組み合わせることでも有益である。
論文 参考訳(メタデータ) (2020-09-08T12:39:47Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z) - On the Generalization Effects of Linear Transformations in Data
Augmentation [32.01435459892255]
データ拡張は、画像やテキストの分類タスクのようなアプリケーションのパフォーマンスを改善するための強力な技術である。
我々は線形変換の族を研究し、過度にパラメータ化された線形回帰設定におけるリッジ推定器への影響について研究する。
本稿では,モデルが変換データに対してどの程度不確実であるかによって,変換空間を探索する拡張手法を提案する。
論文 参考訳(メタデータ) (2020-05-02T04:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。