論文の概要: FMix: Enhancing Mixed Sample Data Augmentation
- arxiv url: http://arxiv.org/abs/2002.12047v3
- Date: Sun, 28 Feb 2021 14:47:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 07:19:44.812441
- Title: FMix: Enhancing Mixed Sample Data Augmentation
- Title(参考訳): FMix: 混合サンプルデータ拡張の強化
- Authors: Ethan Harris, Antonia Marcu, Matthew Painter, Mahesan Niranjan, Adam
Pr\"ugel-Bennett, Jonathon Hare
- Abstract要約: 近年,Mixed Sample Data Augmentation (MSDA) が注目されている。
ここでは、MixUpがCutMixのように学習した関数を歪めていることを示す。
低周波画像にしきい値を適用したランダムなバイナリマスクを用いたMSDAであるFMixを提案する。
- 参考スコア(独自算出の注目度): 5.820517596386667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mixed Sample Data Augmentation (MSDA) has received increasing attention in
recent years, with many successful variants such as MixUp and CutMix. By
studying the mutual information between the function learned by a VAE on the
original data and on the augmented data we show that MixUp distorts learned
functions in a way that CutMix does not. We further demonstrate this by showing
that MixUp acts as a form of adversarial training, increasing robustness to
attacks such as Deep Fool and Uniform Noise which produce examples similar to
those generated by MixUp. We argue that this distortion prevents models from
learning about sample specific features in the data, aiding generalisation
performance. In contrast, we suggest that CutMix works more like a traditional
augmentation, improving performance by preventing memorisation without
distorting the data distribution. However, we argue that an MSDA which builds
on CutMix to include masks of arbitrary shape, rather than just square, could
further prevent memorisation whilst preserving the data distribution in the
same way. To this end, we propose FMix, an MSDA that uses random binary masks
obtained by applying a threshold to low frequency images sampled from Fourier
space. These random masks can take on a wide range of shapes and can be
generated for use with one, two, and three dimensional data. FMix improves
performance over MixUp and CutMix, without an increase in training time, for a
number of models across a range of data sets and problem settings, obtaining a
new single model state-of-the-art result on CIFAR-10 without external data.
Finally, we show that a consequence of the difference between interpolating
MSDA such as MixUp and masking MSDA such as FMix is that the two can be
combined to improve performance even further. Code for all experiments is
provided at https://github.com/ecs-vlc/FMix .
- Abstract(参考訳): Mixed Sample Data Augmentation (MSDA)は近年注目を集めており、MixUpやCutMixなど多くの改良が成功している。
元のデータに基づいてVAEが学習した関数と拡張したデータとの相互情報を調べることにより、MixUpはCutMixがしない方法で学習した関数を歪曲することを示す。
さらに、MixUpが敵対的トレーニングの形式として機能し、MixUpに類似した例を生成するDeep FoolやUniform Noiseのような攻撃に対する堅牢性を高めていることを示す。
この歪みは、モデルがデータのサンプル特有の特徴を学習するのを妨げ、一般化性能を補助する。
対照的に、CutMixは従来の拡張のように機能し、データ分布を歪ませることなく暗記を防止して性能を向上させることを提案する。
しかし、正方形ではなく任意の形状のマスクを含むようにCutMix上に構築されたMSDAは、データ分布を同じように保ちながら記憶をさらに防ぐことができると論じる。
そこで本稿では,Fourier空間からサンプリングした低周波画像に閾値を適用したランダム二元マスクを用いたMSDAのFMixを提案する。
これらのランダムマスクは幅広い形状を取り入れることができ、1, 2, 3次元のデータで使用するために生成される。
FMixは、トレーニング時間を増やすことなくMixUpやCutMixよりもパフォーマンスを改善し、さまざまなデータセットや問題設定のモデルに対して、外部データなしでCIFAR-10上で新しい単一モデルのステート・オブ・ザ・アート結果を得る。
最後に,MixUpなどのMSDAの補間とFMixのようなマスキングMSDAの相違により,両者を組み合わせて性能をさらに向上できることを示す。
すべての実験のコードはhttps://github.com/ecs-vlc/fmixで提供される。
関連論文リスト
- SUMix: Mixup with Semantic and Uncertain Information [41.99721365685618]
混合データ拡張アプローチは、ディープラーニングの様々なタスクに応用されている。
そこで我々は,SUMix という新しい手法を提案し,混合率と混合試料の不確かさを学習する。
論文 参考訳(メタデータ) (2024-07-10T16:25:26Z) - TransformMix: Learning Transformation and Mixing Strategies from Data [20.79680733590554]
我々は、データからより良い変換と拡張戦略を混合するための自動アプローチであるTransformMixを提案する。
本稿では,トランスフォーメーション学習,分類,オブジェクト検出,知識蒸留設定におけるTransformMixの有効性を示す。
論文 参考訳(メタデータ) (2024-03-19T04:36:41Z) - SMMix: Self-Motivated Image Mixing for Vision Transformers [65.809376136455]
CutMixは視覚変換器(ViT)の性能と一般化能力を決定する重要な拡張戦略である
既存のCutMixの変種は、より一貫性のある混合画像やより正確な混合ラベルを生成することでこの問題に対処している。
本稿では,学習モデルによる画像とラベルの強調を動機づける,効率的かつ効果的な自己運動画像混合法を提案する。
論文 参考訳(メタデータ) (2022-12-26T00:19:39Z) - C-Mixup: Improving Generalization in Regression [71.10418219781575]
混合アルゴリズムは、一対の例とその対応するラベルを線形補間することによって一般化を改善する。
ラベルの類似度に基づいてサンプリング確率を調整するC-Mixupを提案する。
C-Mixupは6.56%、4.76%、5.82%の改善、タスクの一般化、アウト・オブ・ディストリビューションの堅牢性を実現している。
論文 参考訳(メタデータ) (2022-10-11T20:39:38Z) - DoubleMix: Simple Interpolation-Based Data Augmentation for Text
Classification [56.817386699291305]
本稿では,DoubleMixと呼ばれる単純なデータ拡張手法を提案する。
DoubleMixはまず、トレーニングデータごとにいくつかの摂動サンプルを生成する。
次に、摂動データと元のデータを使って、隠れたニューラルネットワークの空間で2段階のステップを実行する。
論文 参考訳(メタデータ) (2022-09-12T15:01:04Z) - A Unified Analysis of Mixed Sample Data Augmentation: A Loss Function
Perspective [24.33244008451489]
混合サンプルデータ拡張(MSDA)の最初の統一的理論解析を提案する。
理論的結果から,MSDAは混合戦略の選択によらず,基礎となるトレーニング損失の画素レベルの正則化として振る舞うことが示唆された。
私たちの実装はMixupとCutMixの利点を活用できますが、実装は非常に効率的です。
論文 参考訳(メタデータ) (2022-08-21T15:54:25Z) - RandoMix: A mixed sample data augmentation method with multiple mixed
modes [12.466162659083697]
RandoMixは、堅牢性と多様性の課題に対処するために設計された、混合サンプルデータ拡張手法である。
我々は,CIFAR-10/100,Tiny-ImageNet,ImageNet,Google Speech Commandsなど,さまざまなデータセットに対するRandoMixの有効性を評価する。
論文 参考訳(メタデータ) (2022-05-18T05:31:36Z) - MixAugment & Mixup: Augmentation Methods for Facial Expression
Recognition [4.273075747204267]
我々はMixAugmentと呼ばれるMixupに基づく新しいデータ拡張戦略を提案する。
本研究は、MixAugment over Mixupおよび様々な最先端手法の有効性を実証する広範囲な実験的研究を行う。
論文 参考訳(メタデータ) (2022-05-09T17:43:08Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - SnapMix: Semantically Proportional Mixing for Augmenting Fine-grained
Data [124.95585891086894]
提案はSemantically Proportional Mixing(SnapMix)と呼ばれる
クラスアクティベーションマップ(CAM)を利用して、きめ細かいデータを強化する際にラベルノイズを低減します。
本手法は既存の混合型アプローチを一貫して上回っている。
論文 参考訳(メタデータ) (2020-12-09T03:37:30Z) - Suppressing Mislabeled Data via Grouping and Self-Attention [60.14212694011875]
ディープネットワークは大規模クリーンなデータに対して優れた結果を得るが、ノイズのあるラベルから学習すると著しく劣化する。
本稿では,概念的にシンプルだが効率的な学習ブロックを提案し,これをAFM(Attentive Feature Mixup)と呼ぶ。
クリーンなサンプルにもっと注意を払うことができ、小さなグループでのサンプルインタラクションを通じて、ラベルを間違えることが少なくなります。
論文 参考訳(メタデータ) (2020-10-29T13:54:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。