論文の概要: The Effects of Mixed Sample Data Augmentation are Class Dependent
- arxiv url: http://arxiv.org/abs/2307.09136v2
- Date: Wed, 27 Mar 2024 07:16:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 23:12:22.209819
- Title: The Effects of Mixed Sample Data Augmentation are Class Dependent
- Title(参考訳): 混合サンプルデータ拡張の効果はクラス依存である
- Authors: Haeil Lee, Hansang Lee, Junmo Kim,
- Abstract要約: Mixup、CutMix、PuzzleMixなどのMixed Sample Data Augmentation (MSDA)技術は、様々なタスクのパフォーマンス向上に広く認識されている。
前回の研究では、従来のデータ拡張(DA)のクラス依存性を報告した。
本稿では,MSDAのクラス依存効果を明らかにし,クラスによっては性能が向上し,他のクラスでは性能が劣化していることを示す。
- 参考スコア(独自算出の注目度): 24.064325847615546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mixed Sample Data Augmentation (MSDA) techniques, such as Mixup, CutMix, and PuzzleMix, have been widely acknowledged for enhancing performance in a variety of tasks. A previous study reported the class dependency of traditional data augmentation (DA), where certain classes benefit disproportionately compared to others. This paper reveals a class dependent effect of MSDA, where some classes experience improved performance while others experience degraded performance. This research addresses the issue of class dependency in MSDA and proposes an algorithm to mitigate it. The approach involves training on a mixture of MSDA and non-MSDA data, which not only mitigates the negative impact on the affected classes, but also improves overall accuracy. Furthermore, we provide in-depth analysis and discussion of why MSDA introduced class dependencies and which classes are most likely to have them.
- Abstract(参考訳): Mixup、CutMix、PuzzleMixなどのMixed Sample Data Augmentation (MSDA)技術は、様々なタスクのパフォーマンス向上に広く認識されている。
前回の研究では、従来のデータ拡張(DA)のクラス依存性を報告した。
本稿では,MSDAのクラス依存効果を明らかにし,クラスによっては性能が向上し,他のクラスでは性能が劣化していることを示す。
本研究は,MSDAにおけるクラス依存の問題に対処し,その軽減のためのアルゴリズムを提案する。
このアプローチでは、MSDAと非MSDAデータの混合をトレーニングすることで、影響を受けるクラスに対する負の影響を軽減するだけでなく、全体的な精度も向上する。
さらに、MSDAがなぜクラス依存を導入したのか、どのクラスがそれを持つ可能性が高いのかを詳細に分析し、議論する。
関連論文リスト
- CLIP the Bias: How Useful is Balancing Data in Multimodal Learning? [72.19502317793133]
比較言語画像事前学習(CLIP)におけるバイアス軽減のためのデータバランスの有効性について検討する。
表現バイアスと相関バイアスの両方を低減するために,Multi-Modal Moment Matching (M4) と呼ばれる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-07T14:43:17Z) - Understanding the Detrimental Class-level Effects of Data Augmentation [63.1733767714073]
最適な平均精度を達成するには、ImageNetで最大20%の個々のクラスの精度を著しく損なうコストがかかる。
本稿では,DAがクラスレベルの学習力学とどのように相互作用するかを理解するためのフレームワークを提案する。
そこで本研究では, クラス条件拡張戦略により, 負の影響を受けるクラスの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-07T18:37:43Z) - DualMix: Unleashing the Potential of Data Augmentation for Online
Class-Incremental Learning [14.194817677415065]
その結果,元のデータとの相関が低い拡張サンプルの方が,忘れの防止に有効であることが示唆された。
本稿では,拡張サンプルとラベルを同時に混合する拡張ミックスアップ(EnMix)手法を提案する。
クラス不均衡問題を解決するために、決定境界を調整するための適応混合法(AdpMix)を設計する。
論文 参考訳(メタデータ) (2023-03-14T12:55:42Z) - A Survey of Mix-based Data Augmentation: Taxonomy, Methods,
Applications, and Explainability [13.289769314040282]
データ拡張(DA)は、現代の機械学習やディープニューラルネットワークでは不可欠である。
本研究では、MixDA (Mix-based Data Augmentation) の小さなが必須のサブセットについてレビューする。
単一サンプルの操作やドメイン知識を必要とする従来のDAアプローチとは異なり、MixDAはより幅広い新しいデータを作成するのに一般的である。
論文 参考訳(メタデータ) (2022-12-21T09:58:14Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - FIXED: Frustratingly Easy Domain Generalization with Mixup [53.782029033068675]
ドメイン一般化(Domain Generalization, DG)は、複数のトレーニングドメインから一般化可能なモデルを学ぶことを目的としている。
一般的な戦略は、Mixupcitezhang 2018mixupのようなメソッドによる一般化のためにトレーニングデータを拡張することである。
我々は、MixupベースのDG、すなわちドメイン不変の特徴mIXup(FIX)の簡易かつ効果的な拡張を提案する。
提案手法は,9つの最先端手法よりも優れており,試験精度の面では,ベースラインの平均6.5%を上回っている。
論文 参考訳(メタデータ) (2022-11-07T09:38:34Z) - EPiDA: An Easy Plug-in Data Augmentation Framework for High Performance
Text Classification [34.15923302216751]
本稿では,効率的なテキスト分類を支援するための簡易でプラグイン型のデータ拡張フレームワーク EPiDA を提案する。
EPiDAは、データ生成を制御するために、相対エントロピー(REM)と条件最小エントロピー(CEM)の2つのメカニズムを採用している。
EPiDAは効率的な分類訓練のための効率的で継続的なデータ生成をサポートする。
論文 参考訳(メタデータ) (2022-04-24T06:53:48Z) - MixKD: Towards Efficient Distillation of Large-scale Language Models [129.73786264834894]
データに依存しない蒸留フレームワークであるMixKDを提案する。
妥当な条件下では、MixKDは誤差と経験的誤差の間のギャップを小さくする。
限定的なデータ設定とアブレーションによる実験は、提案手法の利点をさらに証明している。
論文 参考訳(メタデータ) (2020-11-01T18:47:51Z) - Combined Cleaning and Resampling Algorithm for Multi-Class Imbalanced
Data with Label Noise [11.868507571027626]
本稿では,新しいオーバーサンプリング手法であるマルチクラス・コンバインド・クリーニングとリサンプリングのアルゴリズムを提案する。
提案手法は, オーバーサンプリングに適した領域をモデル化するためのエネルギーベース手法を用いて, SMOTEよりも小さな解離や外れ値の影響を受けない。
重なり合うクラス分布が学習アルゴリズムの性能に与える影響を低減することを目的として, 同時クリーニング操作と組み合わせた。
論文 参考訳(メタデータ) (2020-04-07T13:59:35Z) - Multi-source Domain Adaptation in the Deep Learning Era: A Systematic
Survey [53.656086832255944]
マルチソースドメイン適応(MDA)は、ラベル付きデータを複数のソースから収集できる強力な拡張である。
MDAは学術と産業の両方で注目を集めている。
論文 参考訳(メタデータ) (2020-02-26T08:07:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。